PICKUP KEYWORD

ピックアップキーワード

NVIDIA H100 NVL

飛躍的な向上で幅広いHPC、AIアプリケーションに適用

新たなHopperアーキテクチャを採用したNVIDIA H100 GPU は、第 4 世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。 メモリ帯域幅3.98TB/sの94GB HBM3メモリを搭載、NVLink bridgeにより2基のGPU間を双方向600GB/sで接続可能です。

仕様

GPUアーキテクチャ NVIDIA Hopperアーキテクチャ
倍精度浮動小数点演算(FP64) 34 TFLOPS
FP64 Tensor Core演算性能 67 TFLOPS
単精度浮動小数点演算(FP32) 67 TFLOPS
TF32 Tensor Core演算性能 989 TFLOPS
BFLOAT16 Tensor Core演算性能 1979 TFLOPS
FP16 Tensor Core演算性能 1979 TFLOPS
FP8 Tensor Core演算性能 3958 TFLOPS
INT8 Tensor Core演算性能 3958 TFLOPS
メモリバンド幅 3.98TB/s
メモリインターフェース 5120-bit
メモリサイズ 94GB HBM3
NVLink YES
600 GB/sec(双方向)
2基のH100間を接続
CUDAコア 14592
Tensorコア 456(4th Gen)
フォームファクター PCIe
デュアルスロット空冷
TDP 350-400W