PICKUP KEYWORD

ピックアップキーワード

NVIDIA A100

現代で最も重要な作業を 高速化

NVIDIA A100 Tensor コアGPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティックデータセンターにAI、データ分析、HPC のためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIAデータ センター プラットフォームのエンジンです。A100は、前世代と比較して最大 20 倍のパフォーマンスを発揮し、7つの GPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GB と 80GBのメモリバージョンで利用可能なA100 80GBは、毎秒 2 テラバイト (TB/秒) 超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。

仕様

GPUアーキテクチャ NVIDIA Ampereアーキテクチャ
倍精度浮動小数点演算(FP64) 9.7 TFLOPS
単精度浮動小数点演算(FP32) 19.5 TFLOPS
半精度浮動小数点演算(FP16) 312 TFLOPS
FP64 Tensor Core演算性能 19.5 TFLOPS
TF32 Tensor Core演算性能 156 TFLOPS
BFLOAT16 Tensor Core演算性能 312 TFLOPS
INT8 Tensor Core演算性能 624 TOPS
INT4 Tensor Core演算性能 1,248 TOPS
メモリバンド幅 1555GB/s/1935GB/s
メモリインターフェース 5120-bit
メモリサイズ 80GB HBM2e
NVLink YES
600 GB/sec(双方向)
2基のA100間を接続
CUDAコア 6912
Tensorコア 432(3rd Gen)
PCI-E PCIe 4.0 x16
TDP 300W
補助電源コネクタ 1x 8-pin CPU
GPU搭載サーバー・ワークステーションはこちらをご覧ください。