課題別に探す

拡張性の高いディープラーニング環境を構築したい

ディープラーニングに適したGPUサーバーと機器構成の提案からフレームワーク実装まで

AI(人工知能)という新しいテーマへの取り組みをはじめるにあたり、業務や事業に対して得られる効果を見極めることは難しく、なるべく小規模な構成でスタートしたいと考えている方は多いと思います。

加えて、導入後の学習において、前工程(画像の回転や拡大縮小など)と後工程(学習や推論)の処理のバランス、あるいは複数の学習の同時処理において必要なCPUコア数はどれぐらいかといった予測が難しいため、いかに必要なときに必要な性能を確保できるかという問題もあります。

これらの課題をクリアし、処理量の増加や処理スピード向上のための柔軟な拡張性の確保、追加導入時の投資抑制を可能にする、「スモールスタート」「高拡張性」「即効性」をコンセプトとしたディープラーニング向けの学習用コンピューティング環境として、nVidia Dockerにコンテナを構築し、さらに高拡張性を確保したパッケージ型のシステムをご提案します。

また、nVidia Dockerでは、NVIDIAが各種OS(Ubuntu14.04/16.04・CentOS6/7)に各種バージョン(7.0/7.5/8.0)のCUDAとcuDNNを組みこんだコンテナを公開しており、これを利用することによってOS/CUDA等をインストールすることなく、Dockerで仮想化された環境の上に必要な評価環境を構築することが可能です。

ファナティックでは、これに各種フレームワーク(Caffe/Chainer/ TensorFlowなど)を組み込んだコンテナをご用意することによって、スピーディな評価環境の導入と利用開始をサポートします。

特長・適用分野

特長
  • 導入時の時間とコストを抑制

ディープラーニング向けのフレームワークとして数多くのソフトが登場しています。研究者の間で広く使われる米California大学が提供する「Caffe」やカナダのMontreal大学の「Theano/Pylearn2」のほか、Preferred Networksが開発したニューラルネットワークを実装するためのライブラリである「Chainer」、 米Googleの「TensorFlow」など、これらディープラーニング系のフレームワークをコンテナ上にあらかじめ実装。必要最低限かつ最適なスペックのハードウェアに組み込んだ状態でお届けいたします。


  • 将来を見越した拡張性の確保

実際にさまざまな学習用データが蓄積されて効果が得られ、さらに学習スピードをあげる必要に迫られた場合には演算用マシンを、データが増えてきた際には追加の保存先を用意しなればなりません。演算ノード、ストレージ、いずれもすでに構築されたシステムに追加するだけで、いつでも手軽にシステムの拡張が可能です。


  • 検証済のインフラとして導入可能

演算ノード、スイッチ、ストレージ、これら3つの機能がすでに稼働しており、検証済のシステムの追加導入となりますので、機器検討や導入までの手続きといったプロセスがまるごと不要となり、また初期導入時同様ライブラリやフレームワークのセットアップも不要です。


  • 適用分野、主な利用シーン

・ディープラーニングにおける画像を使った機械学習
・同一マシン上に複数環境を構築、処理