ソリューション

AIインフラの知見を活かした
「TED AIインフラパッケージ(TAIP)」

TED AIインフラパッケージ(TAIP)は、AI計算を行う「アクセラレータ製品」、大量データを保持管理する「ストレージ製品」、それらを繋げる「ネットワーク製品」と3種類の製品群が含まれます。TAIPには、AIサービスを持続可能なサービスとして実行するAIパイプラインに必要な機器が網羅されており、お客様はTAIPを導入頂くことで即座にAIパイプラインを開始することができます。
TAIP:TED AI Infrastructure Package

現在のAI/Deep Learning市場

Deep Learningにより第3次AIブームが到来し、言語処理や画像処理の分野でAIを使った様々なサービスが利用されています。ガートナーによるAI半導体の世界売上高予測調査では2025年までに72,693$Mに 達すると予測されています。

※Gartner, Forecast: AI Semiconductors, Worldwide, 2019-2025, 2Q21 Update, Alan Priestley, 1 July 2021, AI Semiconductor Forecast WW  Revenue basis

TAIPとは

AIサービスでコアとなるものは、人間の脳にあたるAIモデルです。このAIモデルは人間の脳と同じく学習が必要で、学習するためにはその材料となる膨大な情報(DataSet)が必要です。また、学習が完了したAIモデルは、実際の運用で利用できるかテストデータを使って評価されます。そして、評価にて必要な予測精度が出ることを確認し、実際に運用(推論)を開始します。運用開始後も、新しいデータをもとに再学習し、予測精度を上げることが出来ます。この一連の流れを繰り返すことをAIパイプラインと呼びます。

AIパイプラインのベースとなるものが、AIインフラ(構成機器)です。効率的なAI パイプラインを実現するためにはAIインフラの知見を活かしたインフラ構築が必要です。TEDは実機評価済の構成としてTAIPを提供します。
また、TAIP開発の知見と深い製品知識に基づき、お客様に適切なAIインフラを提案することが出来ます。
※参考:なぜ高速な外部ストレージが必要なのか?(弊社技術コラムリンク※近日公開予定)
既にAIインフラをお持ちのお客様に対しては、弊社実機評価の知見から最適な「アクセラレータ製品」「ネットワーク製品」「ストレージ製品」各々を提案・販売することも可能です。 TAIPはベンダーロックの無い製品群で構成されています。※注:標準構成でない場合は接続評価が必要となります。

TAIP取り扱い製品群

構成例

サービス内容

なぜTAIPが必要となるのか?

 AIモデルを高い精度で継続して運用するためには、AIパイプラインによって日々増加する新しいデータを継続的に学習させていくことが肝になります。しかしながら、実現は簡単では有りません。例えば、運用(推論)中に取得したデータを即座に学習させたい場合や、複数のAIモデルを準備し条件を分けた情報(DataSet)をそれぞれのAIモデルに学習させ、きめ細かい予測モデルを作りたいなど、お客様ごとのニーズに合わせてAIパイプラインを構築する必要があります。
TAIPは、それらのAIパイプラインを柔軟に実行するためのインフラストラクチャを提供しています。クラウドサービスでは対応できない仕組みも柔軟に構築することが可能です。

たとえば、オンライン増設可能な大容量ストレージを提供しており、運用で増加するデータを継続して保存することができますが、ご用意頂いたサーバーやエッジデバイスとのデータ共有を一元化することで、ハードウェアを跨るデータ移動が発生しない効率的な運用が可能となります。これにより、取得したデータを即座に学習させたり、複数のAIモデルから同一の情報(DataSet)を学習させることも可能となります。

 TAIPではパッケージ環境での様々なAIモデル評価も実施しています。Deep Learningでは言語処理・画像処理の分野での利用が主流となっておりますが、現時点では特に以下のAIモデルを実際にパッケージ上で実行できることを確認しております。今後も評価するAIモデルは増やしていきます。

BERT

リリース時に多くの自然言語処理においてSoTAを達成した自然言語モデル。実装ロジックのTransformerは有名。

ELECTRA

BERTのTransformer技術にGAN(敵対的生成ネットワーク)を取り入れた自然言語モデル。BERTより自然言語処理が速いことで期待されている。

RESNET

画像処理で利用されるCNN(畳み込みニューラルネットワーク)の畳み込み層を更に増やし、それによる勾配消失問題を回避可能にした画像処理モデル。

今後のTAIP

 今回ご紹介させて頂いたTAIPは、フェーズ1の位置づけとなっており、パッケージにて選択可能な製品は多くありません。しかしながら、既に弊社取り扱い製品にはTAIPに組み込めるAIインフラと親和性の高い製品群があります。たとえば、AIインフラの中心となるアクセラレータ製品としても、世界最大のウェハースケールチップを搭載したCerebras CS-2を取り扱っております。検証が済み次第、パッケージラインナップへ追加していきますのでご期待ください。

TAIPのご利用について

 TAIPは、TED AI LabのPoCサービスでも利用できます。詳細については、以下のURLをご確認ください。

また、各種AIインフラ製品を単体でご興味ある方やAIインフラにご興味がある方は何なりとご相談ください。

TED AI Labサービス例     URL: https://cn.teldevice.co.jp/technical_support/ted-ai-lab/ 

リモートPoCサービス

TAIP環境をリモートでご利用いただけます。

オンサイトPoCサービス

TAIP環境をTED AI Lab内でご利用いただけます。

オペレーショントレーニング

TAIP環境の基本的な機器操作方法をハンズオントレーニングするサービスです。

 

 

本件関するお問い合わせは下記よりお待ちしております

お問い合わせはこちら

 

「フラッシュストレージ」に関連する製品・サービス