製品情報

NVIDIA|NVIDIA A100 TENSOR コア GPU

サーバー向けGPUアクセラレーター

NVIDIA|NVIDIA A100 TENSOR コア GPU

規模を問わず、高速化可能なアクセラレータ

NVIDIA A100 Tensor コア GPUは、あらゆるスケールでの高速化によって、AI、データ分析、HPCにおける困難な計算への挑戦を可能にします。

数千単位のGPUに効果的に拡張したり、マルチインスタンスGPUテクノロジによって7個のGPUインスタンスに分割したりすることで、様々なサイズのワークロードを加速できます。

また、第3世代Tensorコアでは、多様なワークロードであらゆる精度が高速化され、洞察を得るまでの時間と製品を市場に届けるまでの時間が短縮されます。

HGX向けNVIDIA A100<br />
HGX向けNVIDIA A100
PCIe-A100
PCIe-A100

主な特長

AIトレーニング向けのTF32を使用して、設定不要で最大6倍高速な性能を実現

正確に会話するAIやディープリコメンダーシステムなど、次のレベルの課題に挑むため、AIモデルの複雑性が爆発的に増しています。モデルのトレーニングには、大規模な計算処理能力とスケーラビリティが必要になります。

NVIDIA A100では、第3世代TensorコアとTF32精度を利用することで、前世代と比較して最大20倍のパフォーマンスをコード変更することなく得ることが可能です。

また、数千単位に拡張することで、BERTのような大型のAIモデルをわずかな時間でトレーニングできます。

AI推論のためのマルチインスタンスGPUにより最大7倍高速な性能を実現

NVIDIA A100には、推論ワークロードを最適化する画期的な新機能が導入されています。

マルチインスタンスGPUテクノロジでは、1つのA100 GPUで複数のAIモデルを同時に運用できるため、計算リソースの使用を最適化できます。

また、スパース行列演算によってさらに推論を高速化することも可能です。

BERT2

4年間で9倍のHPCパフォーマンス

創薬や物理学の分野において、新しい技術を開発するために複雑なシミュレーションの高速化が求められています。

NVIDIA A100の第3世代Tensorコアはあらゆる精度に対応しており、倍精度シミュレーションにおいては前世代より2.5倍高速化しています。

また、HPCアプリケーションではTF32精度を活用することで、単精度の密行列積で最大10倍の演算スループットを実現可能です。

ハイパフォーマンスデータ分析

大量のデータセットを分析、可視化したくても、複数のサーバー間でデータセットが分散されるため、スケールアウトソリューションは行き詰まることが多々あります。

しかし、NVIDIA A100を搭載したアクセラレーテッドサーバーなら、要求される計算処理能力のほか、高速なメモリ帯域幅、第3世代NVLinkとNVSwitchによるスケーラビリティがもたらされるため、大規模なワークロードに取り組むことができます。

performance

仕様

HGX_A100_dataseet

メーカー情報

「AIアクセラレータ」に関連する製品・サービス