画像解析・分析・認識などにAIの活用が注目されていますが、その実現にはGPUなどのAIアクセラレータを利用し相当量の学習が必要です。しかし学習の前段階でも、学習用のデータ作成には膨大な時間を要することがあります。
データセット前処理の段階で行われるデータ拡張(Data Augmentation)は主にCPUが担ってきましたが、膨大な量の画像データに複雑な前処理を施す際に、単にCPUリソースを拡張しただけでは非効率です。
機械学習・ディープラーニング・AI関連技術における学習の中でGPUの活用が広がっています。従来はデータの学習のために用いられることが一般的でしたが、最近では、学習だけでなくデータの前処理にもGPUを活用する取り組みがあります。
その要因にはGPUをフル活用できるソフトウェアが充実していることです。NVIDIAがリリースしている「Dali」は、ディープラーニング・アプリケーションに必要不可欠なデータ処理パイプラインのGPUオフロード機能を提供するライブラリです。従来、CPUで実行されてきた複雑かつ多段的な画像・動画・音声データの前処理をGPUで実行することで、アプリケーションのCPUボトルネックを解消します。
GPUで大量の画像データを扱うには、そのデータを蓄積するための基盤が必要となります。また、さまざまなところから収集した生データと、学習に利用するために整形・拡張(Augmentation)したデータセットとを用途に応じて使い分けるためのストレージも必要です。そのための用途として最適な製品がスケールアウト型NASです。
高精度なAIをつくるために、収集先のデータに制限がなく、さまざまな学習対象データを集めることができる
ストレージ内で持つコンピュートリソースも増やせることからスループットが高く、大容量の画像データの高速な出し入れが可能
さまざまな形でデータ保持することによって発生する急速なデータ容量増への対応も容易
TAIP(TED AI Infrastructure Package)は、お客様のAIパイプラインをあったプラットフォームを構築するために、適したコンピューティング、ネットワーク、ストレージ環境を提供するパッケージです。
試行錯誤を繰り返してAIエンジンを作ろうという半ば試作的な動きが多い中では、簡単に大規模なシステム投資ができないことが1つの課題となっています。GPUをフル活用し、学習用データセットの前処理から推論までをすべてGPUで行え、AIの学習精度に合わせてプラットフォームを拡張できれば、AIエンジン開発にとって何よりも使い勝手の良いプラットフォームになります。それを実現するのがTAIPエントリーモデルです。
TAIPエントリーモデルでは、最新のNVIDIA製GPUカードA100を搭載したIAサーバーと、マルチプロトコル対応スケールアウト型NASである「Dell EMC PowerScale(Isilon)」の組み合わせによるソリューションを提供。GPU環境もNAS環境もスモールスタートでき、サーバーもNASも1台ずつ拡張ができることが特徴です。
データ処理・学習時間に直結する処理性能面でも、PowerScale Isilonは、スケールアウトNASのアーキテクチャである複数のコンピュートノードを使用した高いスループット能力に加え、GPUサーバーとストレージ通信の低遅延を実現するNFS over RDMAにも対応しているので、大容量かつ高速なデータ通信に適した環境を提供することができます。
お客様のAIパイプラインをあったプラットフォームをご提供するパッケージ、TAIP(TED AI Infrastructure Package)エントリーモデルの紹介資料です。TAIPエントリーモデルの概要やハードウェアのスペック、Dell EMC PowerScale(Isilon)の特徴も紹介しています。