PRODUCT

AI基盤づくりのための
ワークステーション・サーバー

AIの基盤づくりをあきらめていませんか。
幅広い製品のご提案からセットアップ・保守までサポートします。

AI活用事例の拡大

製造業におけるDX推進や工場のスマートファクトリー化が進むいっぽう、業界全体では人手不足への対処や技術伝承も課題となっています。このようななかで注目されているのがAIであり、数多くの活用事例が見られるようにもなってきました。生産効率の大幅な改善や収益の拡大のため、今後ますますAI活用の重要性が増していくと考えられます。

AIの活用例
  • 品質検査の自動化
  • 外観検査による工数減
  • 検査効率と精度向上
  • 良・不良の判別
  • 不良率予測
  • 需要予測
  • 予兆保全
  • 製造工程の自動化
  • 技術伝承

AI基盤づくりの課題

さまざまな活用例を参考に、マネジメント層や業務部門からAI導入の推進を求められた場合、情報システム部門などのIT管理担当者が取り組まなければならないのが、AIの基盤づくり(インフラ構築)であり、そのための課題を押さえておく必要があります。

課題
1

既存ITインフラへの
AIソリューションの統合

課題
2

仮想環境での
GPUパフォーマンス調査

課題
3

GPU製品とハードウェアの
選定と調達、保守サポート

「問題解決型」ハードウェアメーカーにご相談ください

ファナティックは、AIに欠かせない重要パーツを提供するGPUベンダーのNVIDIA社のパートナー(NPN Partner Network)メンバーとして、教育機関や公的機関のほか数多くの法人にGPU搭載ワークステーションやサーバーを提供しています。お客様の要件にあわせたカスタム提案からシステムのサービスインまで、さまざまなご要望にお応えします。

が、できること

01
「AI Enterprise」のご紹介
02
幅広い製品のご提案
03
セットアップのサポート・保守体制

01 「AI Enterprise」のご紹介

既存IT基盤への統合~仮想化

「NVIDIA AI Enterprise」は、さまざま産業分野の企業がITインフラとして保有するデータセンター上で、NVIDIA製GPUを用いたAI(人工知能)の開発環境を容易に運用できるようにするソフトウェアスイートです。VMwareや Red Hat の仮想化およびコンテナ オーケストレーション プラットフォーム上で実行できるよう認定、サポートされており、今日のマルチおよびハイブリッドクラウド環境に必要な柔軟な展開を可能にします。

Redhat

業界をリードするKubernetesを搭載したハイブリッドクラウドソリューションであるRed Hat OpenShiftと、NVIDIA AI Enterpriseとの組み合わせで、多様なAIのユースケースを加速させる拡張性の高いプラットフォームを実現します。Red Hat Enterprise Linuxを実行する共同認定ベアメタルシステム、VMware vSphere上の仮想環境、CPUのみのシステムに、オンプレミスとパブリッククラウドに関わらず柔軟な導入が可能です。

Vmware

NVIDIA AI Enterpriseは、VMware vSphereとVMware Cloud Foundationで実行できることが認定されているため、使い慣れたインフラストラクチャ上の仮想化データセンターにAIをデプロイして、シンプルに管理できます。NVIDIA AI Enterpriseは、GPU対応のクラウドサービスの運用と管理を行うVMware Cloud Directorにも対応しています。VMware vSphereは、コンテナの展開のためのRed Hat OpenShiftでもサポートされています。

VMware仮想化プラットフォームでのGPUパススルーによるパフォーマンス検証結果

AI活用で重要な計算処理能力が、仮想化プラットフォームでも確保できるのだろうか、物理環境で使用する場合に比べて能力が落ちてしまうのではないかと心配されるお客様の不安を解消するため、ファナティックでは、それぞれの環境を構築して比較検証を行いました。パフォーマンスはほぼ変わらないと言えるのではないでしょうか。
AI活用で重要な計算処理能力が、仮想化プラットフォームでも確保できるのだろうか、物理環境で使用する場合に比べて能力が落ちてしまうのではないかと心配されるお客様の不安を解消するため、ファナティックでは、それぞれの環境を構築して比較検証を行いました。パフォーマンスはほぼ変わらないと言えるのではないでしょうか。

b512 b384 b256 b192
基準ケース(fp16) 1525.6 1522.6 1490.7 1495.9
比較ケース VM/Docker比 1.0 0.99 0.95 0.95
基準ケース(docker)
比較ケース(VM)

02 幅広い製品提案が可能

PCI-E Gen4ベースのNVIDIA A100、A40、A30をサポートするNVIDIA認定のサーバーやワークステーションを提供、お客様のニーズにあわせて1Uから4Uまでをご用意し、最大8GPUをサポートします。

また、高速かつ低遅延のネットワーク接続を提供するNVIDIA Connectx-7 Smart-NICやNVDIA BlueField DPUのご提案も可能です。

A100 A40 A30
GPUアーキテクチャ NVIDIA Ampereアーキテクチャ NVIDIA Ampereアーキテクチャ NVIDIA Ampereアーキテクチャ
倍精度浮動小数点演算(FP64) 9.7 TFLOPS 非公開 5.2 TFLOPS
単精度浮動小数点演算(FP32) 19.5 TFLOPS 37.4 TFLOPS 10.3 TFLOPS
半精度浮動小数点演算(FP16) 312 TFLOPS 149.7 TFLOPS 165 TFLOPS
FP64 Tensor Core演算性能 19.5 TFLOPS 非公開 10.3 TFLOPS
TF32 Tensor Core演算性能 156 TFLOPS 74.8 TFLOPS 82 TFLOPS
BFLOAT16 Tensor Core演算性能 156 TFLOPS 74.8 TFLOPS 82 TFLOPS
INT8 Tensor Core演算性能 624 TOPS 299.3 TOPS 330 TOPS
INT4 Tensor Core演算性能 1,248 TOPS 598.7 TOPS 661 TOPS
メモリバンド幅 1555GB/s / 1935GB/s 696 GB/s 933 GB/s
メモリインターフェース 5120-bit 384-bit 3072-bit
メモリサイズ 80GB HBM2e 48 GB GDDR6 ECC付き 24GB HBM2
NVLink YES
600 GB/sec(双方向)
2基のA100間を接続
YES
112.5 GB/sec(双方向)
2基のA40間を接続
YES
200 GB/sec(双方向)
2基のA30間を接続
CUDAコア 6,912 10,752 非公開
Tensorコア 432(3rd Gen) 336(3rd Gen) 非公開
RTコア - 84(2nd Gen) 非公開
PCI-E PCIe 4.0x16 PCIe 4.0x16 PCIe 4.0x16
TDP 400w 300w 165w
補助電源コネクタ 1x8-pin CPU 1x8-pin CPU 1x8-pin CPU

03 セットアップのサポート・保守体制

お届けするサーバーやワークステーションには、UbuntuやRedhatなどOSのインストール、CUDA、NVIDIA NGC、NVIDIA Docker、Tensorflow、Pytorch、kubernetesなどAI、ディープラーニング用の各種コンテナやライブラリのセットアップ代行も行っております。

1年間の無償センドバック保証を標準でご用意。さらにオプションで最長5年の長期保証も可能です。また、オンサイトによる保守やテクニカルサポートなどでお客様の運用をバックアップいたします。

※一部製品を除く、詳しくは営業担当までお問い合わせください。