技術サポート

TED AI Lab エンジニアリングサービス 「TAILES」

「TAILES (TED AI Lab Engineering Service) 」は、
世界最速級のAIアクセラレータのご利用とエンジニアサポートのご提供をあわせたエンジニアリングサービスです。

2021年7月に当社エンジニアリングセンター(横浜市都筑区)に開設した「TED AI Lab」のAIアクセラレータと高性能なハードウェアの環境を用いてすぐにディープラーニングの高速学習を始めることができます。研究所・学術機関からデータセンターや企業のお客様まで、機器サイジングの為の性能評価、クラウドとの性能・価格比較といった様々なニーズに対応します。

お問い合わせはこちら

TAILES_Lab-東京エレクトロンデバイス

ピンチアウトで拡大

TED AI Lab エンジニアリングサービス「TAILES」の特徴

世界最速級ディープラーニング環境をすぐに体験

世界最速級のCerebras Systems社CS-2そしてNVIDIA社DGX A100を用いたディープラーニングの高速な学習をすぐに始められるTED AI LabのAIアクセラレータを提供します。
ご利用可能なAIアクセラレータの詳細はこちらを参照ください。

手厚いエンジニアリングサポート

TED AI Labをすぐに使い始められるエンジニアリングサポートをご提供します。機器の使用方法やディープラーニングに関するQAまで専門知識を持った当社のエンジニアがサポートします。
エンジニアリングサポートの詳細はこちらを参照ください。

サービスご利用 100万円より

まずは短期間でエンジニアリングサービスを試したい方にご希望に合わせて、最短2週間から利用が可能です。詳細のサービス費用についてはお問い合わせフォームよりお問い合わせください。

世界最速級ディープラーニング環境を今すぐ体験

TED AI Labの概要

ディープラーニング(深層学習)の発達により、自然言語処理(NLP)や画像識別(CV)を用いた自動運転など、AI活用のニーズは日増しに高まっています。一方、AIモデルの精度や複雑性が上がるにつれて大型化し、学習期間も長期化しています。
このような課題に対応して、TAILESではTED AI Labの最新AIアクセラレータによるシステム規模の適正化のための性能評価、クラウド環境との性能・価格比較、AI処理に特化した性能検証を実施することができます。
TAILESは、従来のクラウドサービスとは異なり、自社のオンプレ環境のようにTED AI Labを利用でき、お持ちの学習データとプログラムですぐにAI学習を開始できます。TED AI Labの利用は、リモート接続と併せてオンサイトでの接続やデータの持ち込みも可能です。

AIアクセラレータ

TAILES_Cerebras -東京エレクトロンデバイス

ピンチアウトで拡大

Cerebras Systems社が開発したWafer Scale Engine(WSE)と呼ばれる46,225㎟の巨大なシリコンチップを搭載したDeep Learning専用アクセラレータシステムです。
85万個のAI処理コアと合計40GBのローカルSRAMを実装したWSE上で、シリコンスピードでコア間通信を行うことで超高速なAI学習環境を提供します。

>>CS-2の詳細はこちら

TAILES_NVIDIA-東京エレクトロンデバイス

ピンチアウトで拡大

DGX-A100は、最新のA100 GPUを8枚搭載した高性能DGXアプライアンスです。
NVIDIA社最新のDGX-A100を用いて、性能評価検証やマルチインスタンスGPU(MIG)機能を用いた並列での推論動作の効果検証など様々なニーズに対応できるAI学習環境を提供します。

 

>>DGX A100の詳細はこちら

TED AI Labの構成

 

TAILES_lab構成図‐東京エレクトロンデバイス

ピンチアウトで拡大

設置機器仕様

 

手厚いエンジニアリングサポート

TED AI Labの各機器の使用方法からディープラーニングに関する一般的なQAまで専門知識を持った当社のエンジニアがトータルサポートします。
また、ご利用の開始時と終了時にはスタートアップとクロージングのセッションを開催します。

スタートアップセッション

スタートアップ5_AdobeStock_215582907_Previewサービス利用開始時に、スタートアップセッションを実施します。
Cerebras CS-2およびNVIDIA DGX A100の機器の使い方、サンプルAIモデルとサンプルデータセットを使った簡易デモやハンズオンをご提供します。
NVIDIA DGX A100をご利用の際は、NGC(NVIDIA GPU Cloud)の提供コンテナ初期設定などのサポートも可能です。

 

QA対応

Q&A2_AdobeStock_338486676_PreviewCerebras CS-2およびNVIDIA DGX A100に関するQA(※)を提供します。サンプルAIモデルのハイパーパラメータや、出力ログに関するQAなど、ご利用中の様々なお問い合わせにお答えします。
NVIDIA DGX A100をご利用の際は、NGC(NVIDIA GPU Cloud)の提供コンテナやマルチインスタンスGPU(MIG)に関するQAにも対応します。
※学習モデルの最適化は除きます。

 

クロージングセッション

クロージングセッション3_AdobeStock_216675380_Previewサービスご利用終了時に、クロージングセッションを実施します。
Cerebras CS-2およびNVIDIA DGX A100での検証結果から、必要に応じて今後のアクションについてご提案します。

サービス利用費用・お問い合わせはこちら

最短2週間から利用が可能です。詳細のサービス費用については下記フォームよりお問い合わせください。

お問い合わせはこちら

 

所在地

東京エレクトロンデバイス  エンジニアリングセンター

所在地の詳細はこちら

関連する製品