『問題解決型』ハードウェアメーカー
ファナティック
-
- ファナティックの特長 ファナティックの特長
- /
- 製品&ソリューション 製品&ソリューション
- /
- 導入事例 導入事例
- /
- 最新ニュース 最新ニュース
- /
- ファナティックレポート ファナティックレポート
- /
- サポート サポート
- /
- 会社案内 会社案内
- /
- 採用情報 採用情報
2021.07.05ニュースリリース
NVIDIA A100 80GBおよびNVIDIA A30搭載サーバー、ワークステーションの取り扱い開始について
NVIDIA Ampereアーキテクチャ採用のNVIDIA A100 80GBおよびNVIDIA A30を搭載したサーバー、ワークステーションの取り扱いを開始しました。
あらたに加わったNVIDIA A100 80GBは、従来のA100 PCIeのGPUメモリ40GBに対して2倍の80GB HBM2eメモリを搭載、さらにメモリ帯域も約1.6TB/sから約2TB/sに向上。従来モデル同様NVLinkに対応しており、大規模なメモリ空間を利用することができます。
また、NVIDIA A30は24GB HBM2のメモリを搭載、933GB/sの高速メモリ帯域をTDP165Wの少ない電力消費で実現しており、幅広いHPC、AIアプリケーションに適しています。
ラックマウントタイプやタワー型など、搭載製品の詳しい内容やご購入のご相談は、こちらよりお問い合わせください。
NVIDIA A100(80GB)/A30 性能
NVIDIA A100(80GB) | NVIDIA A30 | |
GPUアーキテクチャ | NVIDIA Ampere Architecture | NVIDIA Ampere Architecture |
倍精度浮動小数点演算性能(FP64) | 9.7TFLOPS | 5.2TFLOPS |
単精度浮動小数点演算性能(FP32) | 19.5TFLOPS | 10.3TFLOPS |
半精度浮動小数点演算性能(FP16) | 312TFLOPS | 165TFLOPS |
FP64 Tensor Core演算性能 | 19.5TFLOPS | 10.3TFLOPS |
TF32 Tensor Core演算性能 | 156TFLOPS | 82TFLOPS |
BFLOAT16 Tensor Core演算性能 | 312TFLOPS | 165TFLOPS |
FP16 Tensor Core演算性能 | 312TFLOPS | 165TFLOPS |
INT8 Tensor Core演算性能 | 624TOPS | 330TOPS |
INT4 Tensor Core演算性能 | 1,248TOPS | 661TOPS |
メモリバンド幅 | 1935GB/s | 933GB/s |
メモリインターフェース | 5120-bit | 3072-bit |
メモリサイズ | 80GB HBM2e | 24GB HBM2 |
NVLink | YES | YES |
CUDAコア | 6912 | 未公開 |
Tensorコア | 432(3rd Gen) | 未公開 |
PCI-E | PCIe 4.0 x16 | PCIe 4.0 x16 |
TDP | 300W | 165W |
補助電源コネクタ | 1x 8-pin CPU | 1x 8-pin CPU |