FANATIC REPORT ファナティックレポート

NVIDIA® H200 vs H100 NVLベンチマーク比較~TensorFlow学習ベンチマーク(ResNet50)~

2025.03.10 ベンチマークレポート


NVIDIA® H200 vs H100 NVLベンチマーク比較~TensorFlow学習ベンチマーク(ResNet50)~

H200は4.8 (TB/s) で 141 (GB) の HBM3e メモリを提供する初の GPU です。H200の学習ベンチマークの結果をご提供します。
NVLink対応のH100NVLとのベンチマークで、1基から4基搭載で画像処理速度(image/sec)を検証しました。
注)ベンチマーク取得時期にともない、ドライバ環境などが異なりますのであらかじめご了承ください

[H200について]

H200は、2024年3月にリリースされた、NVIDIA Hopper アーキテクチャを採用した大規模AI向けGPUです。
毎秒 4.8 テラバイト (TB/s) で 141 ギガバイト (GB) の HBM3e メモリを提供します。

[H200/H100 NVL仕様]

H200 H100 NVL
メモリ 141GB 94GB
メモリ帯域 4.8TB/s 3.9TB/s
消費電力 700W 300-350W
サイズ SXM 2Slot

[総評]

H100NVLと比較してH20は、より高いパフォーマンスであることが確認できました。画像処理速度で最大1.25倍のスコアを確認いたしました。
また、バッチサイズもfp16で2048、fp32で1536での演算が可能となっております。より大規模なモデルでの活用が期待できます。

[詳細]

■TensorFlow 学習ベンチマーク(ResNet50)

H200 SXM / H100 NVL
OS Ubuntu 24.04.1
Driver 560.35.03
Docker 24.08-tf2-py3
(TensorFlow2)
CUDA 12.6.2

 

■H200 とH100 NVLとの比較結果(1基および2基搭載時の画像処理速度(image/sec))

ResNet50(fp16 Batch512)

ResNet50(fp32 Batch512)

Tensorflowの学習ベンチマーク結果では、H200とH100 NVLの比較では最大1.25倍のパフォーマンス向上が見られます。

 

■H200の結果(1基から4基搭載時)

ResNet50(fp16 Batch2048)

ResNet50(fp32 Batch1536)

H100 NVLのマルチGPUでの評価として、1基から4基での評価を実施しました。いずれも基数に応じてスコアが上昇し、搭載数に応じた結果が期待できます。

バッチサイズについては、今回のH200ではfp16では2048まで、fp32では1536まで実行できることを確認しています。H200では、より大規模なモデルでの評価が期待できます。

[まとめ]

H200のベンチマークを実施いたしました。ハイエンドGPUとなっており特に大規模なモデルで成果が期待できます。是非お問い合わせ下さい。
また、引き続きH200のNVLinkの効果の評価を実施しております。別途ご報告いたします。ご期待ください。

プライベートLLM・RAGの運用基礎を支える 自由度の高い高性能GPUサーバー
AI基盤づくりのためのワークステーション・サーバー
生産現場のAI活用 学習用ワークステーションから推論用エッジPCまで

人気レポートランキング

レポートカテゴリ

製品カテゴリ