『問題解決型』ハードウェアメーカー
ファナティック
-
- ファナティックの特長 ファナティックの特長
- /
- 製品&ソリューション 製品&ソリューション
- /
- 導入事例 導入事例
- /
- 最新ニュース 最新ニュース
- /
- ファナティックレポート ファナティックレポート
- /
- サポート サポート
- /
- 会社案内 会社案内
- /
- 採用情報 採用情報
NVIDIA A100 Tensor コアGPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティックデータセンターにAI、データ分析、HPC のためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIAデータ センター プラットフォームのエンジンです。A100は、前世代と比較して最大 20 倍のパフォーマンスを発揮し、7つの GPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GB と 80GBのメモリバージョンで利用可能なA100 80GBは、毎秒 2 テラバイト (TB/秒) 超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。
GPUアーキテクチャ | NVIDIA Ampereアーキテクチャ |
倍精度浮動小数点演算(FP64) | 9.7 TFLOPS |
単精度浮動小数点演算(FP32) | 19.5 TFLOPS |
半精度浮動小数点演算(FP16) | 312 TFLOPS |
FP64 Tensor Core演算性能 | 19.5 TFLOPS |
TF32 Tensor Core演算性能 | 156 TFLOPS |
BFLOAT16 Tensor Core演算性能 | 312 TFLOPS |
INT8 Tensor Core演算性能 | 624 TOPS |
INT4 Tensor Core演算性能 | 1,248 TOPS |
メモリバンド幅 | 1555GB/s/1935GB/s |
メモリインターフェース | 5120-bit |
メモリサイズ | 80GB HBM2e |
NVLink | YES 600 GB/sec(双方向) 2基のA100間を接続 |
CUDAコア | 6912 |
Tensorコア | 432(3rd Gen) |
PCI-E | PCIe 4.0 x16 |
TDP | 300W |
補助電源コネクタ | 1x 8-pin CPU |