NEWS 最新ニュース ニュース一覧へ

  • IMG

    NVIDIA A100 80GBおよびNVIDIA A30搭載サーバー、ワークステーションの受注を開始しました。

    2021.07.05ニュースリリース

NVIDIA A100 80GBおよびNVIDIA A30搭載サーバー、ワークステーションの取り扱い開始について

NVIDIA Ampereアーキテクチャ採用のNVIDIA A100 80GBおよびNVIDIA A30を搭載したサーバー、ワークステーションの取り扱いを開始しました。

あらたに加わったNVIDIA A100 80GBは、従来のA100 PCIeのGPUメモリ40GBに対して2倍の80GB HBM2eメモリを搭載、さらにメモリ帯域も約1.6TB/sから約2TB/sに向上。従来モデル同様NVLinkに対応しており、大規模なメモリ空間を利用することができます。

また、NVIDIA A30は24GB HBM2のメモリを搭載、933GB/sの高速メモリ帯域をTDP165Wの少ない電力消費で実現しており、幅広いHPC、AIアプリケーションに適しています。

ラックマウントタイプやタワー型など、搭載製品の詳しい内容やご購入のご相談は、こちらよりお問い合わせください。

 

NVIDIA A100(80GB)/A30 性能

NVIDIA A100(80GB) NVIDIA A30
GPUアーキテクチャ NVIDIA Ampere Architecture NVIDIA Ampere Architecture
倍精度浮動小数点演算性能(FP64) 9.7TFLOPS 5.2TFLOPS
単精度浮動小数点演算性能(FP32) 19.5TFLOPS 10.3TFLOPS
半精度浮動小数点演算性能(FP16) 312TFLOPS 165TFLOPS
FP64 Tensor Core演算性能 19.5TFLOPS 10.3TFLOPS
TF32 Tensor Core演算性能 156TFLOPS 82TFLOPS
BFLOAT16 Tensor Core演算性能 312TFLOPS 165TFLOPS
FP16 Tensor Core演算性能 312TFLOPS 165TFLOPS
INT8 Tensor Core演算性能 624TOPS 330TOPS
INT4 Tensor Core演算性能 1,248TOPS 661TOPS
メモリバンド幅 1935GB/s 933GB/s
メモリインターフェース 5120-bit 3072-bit
メモリサイズ 80GB HBM2e 24GB HBM2
NVLink YES YES
CUDAコア 6912 未公開
Tensorコア 432(3rd Gen) 未公開
PCI-E PCIe 4.0 x16 PCIe 4.0 x16
TDP 300W 165W
補助電源コネクタ 1x 8-pin CPU 1x 8-pin CPU

お問い合わせはこちら