PICKUP KEYWORD

ピックアップキーワード

NVIDIA A100

現代で最も重要な作業を 高速化

NVIDIA A100 Tensor コアGPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティックデータセンターにAI、データ分析、HPC のためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIAデータ センター プラットフォームのエンジンです。A100は、前世代と比較して最大 20 倍のパフォーマンスを発揮し、7つの GPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GB と 80GBのメモリバージョンで利用可能なA100 80GBは、毎秒 2 テラバイト (TB/秒) 超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。

仕様

GPUアーキテクチャ NVIDIA Ampereアーキテクチャ
倍精度浮動小数点演算(FP64) 9.7 TFLOPS
単精度浮動小数点演算(FP32) 19.5 TFLOPS
半精度浮動小数点演算(FP16) 312 TFLOPS/td>
FP64 Tensor Core演算性能 19.5 TFLOPS
TF32 Tensor Core演算性能 156 TFLOPS
BFLOAT16 Tensor Core演算性能 312 TFLOPS
INT8 Tensor Core演算性能 624 TOPS
INT4 Tensor Core演算性能 1,248 TOPS
メモリバンド幅 1555GB/s/1935GB/s
メモリインターフェース 5120-bit
メモリサイズ 80GB HBM2e
NVLink YES
600 GB/sec(双方向)
2基のA100間を接続
CUDAコア 6912
Tensorコア 432(3rd Gen)
PCI-E PCIe 4.0 x16
TDP 300W
補助電源コネクタ 1x 8-pin CPU