『問題解決型』ハードウェアメーカー
ファナティック
-
- ファナティックの特長 ファナティックの特長
- /
- 製品&ソリューション 製品&ソリューション
- /
- 導入事例 導入事例
- /
- 最新ニュース 最新ニュース
- /
- ファナティックレポート ファナティックレポート
- /
- サポート サポート
- /
- 会社案内 会社案内
- /
- 採用情報 採用情報
新たなHopperアーキテクチャを採用したNVIDIA H100 GPU は、第 4 世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。 メモリ帯域幅3.98TB/sの94GB HBM3メモリを搭載、NVLink bridgeにより2基のGPU間を双方向600GB/sで接続可能です。
GPUアーキテクチャ | NVIDIA Hopperアーキテクチャ |
倍精度浮動小数点演算(FP64) | 34 TFLOPS |
FP64 Tensor Core演算性能 | 67 TFLOPS |
単精度浮動小数点演算(FP32) | 67 TFLOPS |
TF32 Tensor Core演算性能 | 989 TFLOPS |
BFLOAT16 Tensor Core演算性能 | 1979 TFLOPS |
FP16 Tensor Core演算性能 | 1979 TFLOPS |
FP8 Tensor Core演算性能 | 3958 TFLOPS |
INT8 Tensor Core演算性能 | 3958 TFLOPS |
メモリバンド幅 | 3.98TB/s |
メモリインターフェース | 5120-bit |
メモリサイズ | 94GB HBM3 |
NVLink | YES 600 GB/sec(双方向) 2基のH100間を接続 |
CUDAコア | 14592 |
Tensorコア | 456(4th Gen) |
フォームファクター | PCIe デュアルスロット空冷 |
TDP | 350-400W |