製品情報

NVIDIA DGX Systems|東京エレクトロンデバイス

NVIDIA | NVIDIA DGX Systems

NVIDIA DGX Systems で構築された世界初の AIシステム

NVIDIA | NVIDIA DGX Systems

NVIDIA DGX Systems で構築された世界初の AI システム

A100の特長はこちら

H100の特長はこちら

NVIDIA DGX A100

NVIDIA DGX A100はあらゆるAIワークフローのためのユニバーサルシステムであり、非常に高い計算処理密度、
パフォーマンス、柔軟性を提供する5ペタフロップス AIシステムです。
世界最先端のアクセラレータ「NVIDIA A100 TensorコアGPU」を8機搭載することにより、トレーニング、推論、分析と
全てのワークロードに対応し、かつてない高性能な環境をご提供いたします。

A100 information_NVIDIA-東京エレクトロンデバイス

DGX A100のパフォーマンス

8つのNVIDIA A100 TensorコアGPUを搭載するNVIDIA DGX A100は、これまでにないアクセラレーションを提供し、
NVIDIA CUDA-XソフトウェアとエンドツーエンドのNVIDIAデータセンターソリューションスタックに完全に最適化されています。
また、コードを変更することなく高速化できる自動混合精度機能、高速かつ大容量のメモリ、GPU間の高速通信を可能とするNVLink等を
新たに搭載することで、これまで時間的制約により現実的ではなかった課題に対し最短でソリューションを実現可能です。

DGX A100 Performance_NVIDIA-東京エレクトロンデバイス

NVIDIA DGX  H100

NVIDIA DGX H100 でイノベーションと最適化の限界を広げましょう。
DGX Systems の最新バージョンであり、NVIDIA DGX SuperPOD の基盤となっている DGX H100 は、
NVIDIA H100 Tensor コア GPUの画期的なパフォーマンスによって加速される、AI対応の高性能製品です。

H100 information_NVIDIA-東京エレクトロンデバイス

主な特長

 


A100の特長

NVIDIA A100 Tensor コア GPU

NVIDIA A100 Tensor コア GPU による前例のない高速化をもって、世界で最も困難な計算に
AI、データ分析、HPC (ハイ パフォーマンス コンピューティング) で挑むことができます。
第3世代のNVIDIA Tensor コアにより性能を大幅に向上できるようになり、A100 GPU を効率的に数千までスケール アップできます。
また、マルチインスタンス GPU を使用すれば、あらゆるサイズのワークフローを加速するために
7つの小さな専用インスタンスとして割り当てることができます。

A100-qtr_NVIDIA-東京エレクトロンデバイス

マルチインスタンス GPU (MIG)

MIG を利用することで、NVIDIA DGX A100 の8つのA100 GPUを最大56個の GPU インスタンスとして構成し、
それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。
これにより管理者は、複数のワークフローに対してサービス品質(QoS)が保証されたGPUのサイズを適切に設定することができます。

MIG multi instance

次世代 NVLink と NVSwitch

NVIDIA DGX A100 の第3世代の NVIDIA NVLink は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。
これはPCIe Gen4のほぼ10倍に相当します。
NVIDIA DGX A100には、前世代と比較して2倍の速度を可能にする次世代の NVIDIA NVSwitch も搭載されています。

NVLink and NVSwitch

最適化されたソフトウェア スタック

NVIDIA DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステムソフトウェア、
GPU 対応アプリケーション、トレーニング済みモデル、NGC の各種機能など、テスト済みで最適化された
DGX ソフトウェア スタックが統合されています。

NVIDIA software stack

NVIDIA Mellanoxによるスケーラビリティ

DGX A100は、クラスタリング用に8つのシングルポートNVIDIA Mellanox ConnectX-6 VPI HDR InfiniBandアダプターと、
ストレージとネットワーキング用に最大2つのデュアルポートConnectX-6 VPI Ethernetアダプターを備えており、
いずれも毎秒200Gbの性能を発揮します。
大規模なGPUアクセラレーテッドコンピューティングと、最先端のネットワーキングハードウェアおよびソフトウェアの最適化を組み合わせることで、
数百、数千ノードにまでスケールアップが可能になり、対話型AIや大規模な画像分類などの難易度の高い課題に対応できます。

NVIDIA Mellanox ConnectX-6

 

H100の特長

NVIDIA H100 Tensor コア GPU

NVIDIA H100 Tensor コアGPUは、あらゆるワークロードにためのかつてない性能、拡張性、セキュリティを提供します。
NVIDIA NVLink Switch Systemにより、最大256個のH100を接続し、エクサスケールのワークロードを高速化できることに加え、
専用のTransformer Engineを利用することで、パラメータが兆単位の言語モデルの実装が可能です。
これらの複合的な技術革新により、大規模な言語モデルが前世代と比較して30倍も高速化されます。

NVIDIA H100 Tensorcore

AIセンターオブエクセレンスの第一歩

DGX H100は、世界初の専用AIインフラストラクチャの第4世代であり、完全に最適化されたハードウェアおよび ソフトウェアプラットフォームです。
新しいNVIDIA AIソフトウェアソリューションに対応し、多様なサードパーティの サポートを受けられるエコシステムを利用でき、
NVIDIAプロフェッショナルサービスによりエキスパートからのアドバイスを受けることができます。

Expart advice

AIの障壁を打ち破る

NVIDIA DGX H100は6倍高速なパフォーマンス、2倍高速なネットワーキング、および
ハイスピードなスケーラビリティをNVIDIA DGX SuperPODに対して発揮します。
この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーションモデルといった
大規模なワークロードに対応できるように強化されています。

NVIDIA DGX super POD

仕様

メーカー情報

「AIアクセラレータ」に関連する製品・サービス