PICKUP KEYWORD

ピックアップキーワード

NVIDIA H100 PCIe

飛躍的な向上で幅広いHPC、AIアプリケーションに適用

新たなHopperアーキテクチャを採用したNVIDIA H100 GPU は、第 4 世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。 2TB/s(PCIe版)のGPUメモリ帯域の80GB HBM3メモリを搭載、次世代PCI-E Gen5により双方向128GB/sのPCIe通信帯域をサポートします。NVLink bridgeにより2基のGPU間を双方向600GB/sで接続可能です。

仕様

GPUアーキテクチャ NVIDIA Hopperアーキテクチャ
倍精度浮動小数点演算(FP64) 24 TFLOPS
単精度浮動小数点演算(FP32) 48 TFLOPS
FP64 Tensor Core演算性能 48 TFLOPS
TF32 Tensor Core演算性能 400 TFLOPS
BFLOAT16 Tensor Core演算性能 800 TFLOPS
FP16 Tensor Core演算性能 800 TFLOPS
INT8 Tensor Core演算性能 1600 TOPS
メモリバンド幅 2TGB/s/1935GB/s
メモリインターフェース 5120-bit
メモリサイズ 80GB HBM3
NVLink YES
600 GB/sec(双方向)
2基のH100間を接続
CUDAコア 14592
Tensorコア 456(4th Gen)
PCI-E PCIe 5.0 x16
TDP 350W