「TAILES (TED AI Lab Engineering Service) 」は、
世界最速級のAIアクセラレータのご利用とエンジニアサポートのご提供をあわせたエンジニアリングサービスです。
2021年7月に当社エンジニアリングセンター(横浜市都筑区)に開設した「TED AI Lab」のAIアクセラレータと高性能なハードウェアの環境を用いてすぐにディープラーニングの高速学習を始めることができます。研究所・学術機関からデータセンターや企業のお客様まで、機器サイジングの為の性能評価、クラウドとの性能・価格比較といった様々なニーズに対応します。
まずは短期間でエンジニアリングサービスを試したい方にご希望に合わせて、最短2週間から利用が可能です。詳細のサービス費用についてはお問い合わせフォームよりお問い合わせください。
ディープラーニング(深層学習)の発達により、自然言語処理(NLP)や画像識別(CV)を用いた自動運転など、AI活用のニーズは日増しに高まっています。一方、AIモデルの精度や複雑性が上がるにつれて大型化し、学習期間も長期化しています。
このような課題に対応して、TAILESではTED AI Labの最新AIアクセラレータによるシステム規模の適正化のための性能評価、クラウド環境との性能・価格比較、AI処理に特化した性能検証を実施することができます。
TAILESは、従来のクラウドサービスとは異なり、自社のオンプレ環境のようにTED AI Labを利用でき、お持ちの学習データとプログラムですぐにAI学習を開始できます。TED AI Labの利用は、リモート接続と併せてオンサイトでの接続やデータの持ち込みも可能です。
ピンチアウトで拡大
Cerebras Systems社が開発したWafer Scale Engine(WSE)と呼ばれる46,225㎟の巨大なシリコンチップを搭載したDeep Learning専用アクセラレータシステムです。
85万個のAI処理コアと合計40GBのローカルSRAMを実装したWSE上で、シリコンスピードでコア間通信を行うことで超高速なAI学習環境を提供します。
>>CS-2の詳細はこちら
ピンチアウトで拡大
DGX-A100は、最新のA100 GPUを8枚搭載した高性能DGXアプライアンスです。
NVIDIA社最新のDGX-A100を用いて、性能評価検証やマルチインスタンスGPU(MIG)機能を用いた並列での推論動作の効果検証など様々なニーズに対応できるAI学習環境を提供します。
>>DGX A100の詳細はこちら
ピンチアウトで拡大
ピンチアウトで拡大
TED AI Labの各機器の使用方法からディープラーニングに関する一般的なQAまで専門知識を持った当社のエンジニアがトータルサポートします。
また、ご利用の開始時と終了時にはスタートアップとクロージングのセッションを開催します。
サービス利用開始時に、スタートアップセッションを実施します。
Cerebras CS-2およびNVIDIA DGX A100の機器の使い方、サンプルAIモデルとサンプルデータセットを使った簡易デモやハンズオンをご提供します。
NVIDIA DGX A100をご利用の際は、NGC(NVIDIA GPU Cloud)の提供コンテナ初期設定などのサポートも可能です。
Cerebras CS-2およびNVIDIA DGX A100に関するQA(※)を提供します。サンプルAIモデルのハイパーパラメータや、出力ログに関するQAなど、ご利用中の様々なお問い合わせにお答えします。
NVIDIA DGX A100をご利用の際は、NGC(NVIDIA GPU Cloud)の提供コンテナやマルチインスタンスGPU(MIG)に関するQAにも対応します。
※学習モデルの最適化は除きます。
サービスご利用終了時に、クロージングセッションを実施します。
Cerebras CS-2およびNVIDIA DGX A100での検証結果から、必要に応じて今後のアクションについてご提案します。
最短2週間から利用が可能です。詳細のサービス費用については下記フォームよりお問い合わせください。
所在地
東京エレクトロンデバイス エンジニアリングセンター