1/2ページ
ダウンロード(1.4Mb)
このカタログについて
ドキュメント名 | 世界最速のAIインフラストラクチャ NVIDIA DGX A100 |
---|---|
ドキュメント種別 | 製品カタログ |
ファイルサイズ | 1.4Mb |
登録カテゴリ | |
取り扱い企業 | 東京エレクトロンデバイス株式会社 (この企業の取り扱いカタログ一覧) |
この企業の関連カタログ
このカタログの内容
Page1
NVIDIA DGX A100
AI インフラストラクチャ向けの
ユニバーサル システム
エンタープライズ AI のスケーリングへの挑戦 システムの仕様
あらゆるビジネスで、人工知能(AI)を活用した変革が求められています。それは、困難な時代 GPU NVIDIA A100 Tensor
コア GPU x 8
に生き残るためだけではなく、飛躍を遂げるためでもあります。ただし、そのためには、従来の GPU メモリ 総計 320 GB
アプローチを改善する AI インフラストラクチャ用のプラットフォームが必要です。これまでは、 パフォーマンス AI で 5 petaFLOPS
分析、トレーニング、推論のワークロードごとにサイロ化された低速のコンピューティング アー INT8 で 10 petaOPS
キテクチャが採用されていましたが、このアプローチでは、複雑さとコストが増大し、スケーリン NVIDIA NVSwitch 6
グの速度が制限され、現代の AI には対応できていませんでした。企業、開発者、データ サイエ 消費電力 6.5 kW( 最大)
ンティスト、研究者に本当に必要なのは、すべての AI ワークロードを統合し、インフラストラク CPU Dual AMD Rome
チャを簡素化し、ROI を向上させる新たなプラットフォームです。 7742、総計 128 コア、 2.25 GHz( ベ
ース)、3.4 GHz( 最大ブースト)
システム メモリ 1 TB
あらゆる AI ワークロードに対応するユニバーサル システム ネットワーク シングルポート
NVIDIA DGX™ A100 は、分析からトレーニング、推論に至るまで、あらゆる AI ワークロード Mellanox ConnectX-6 VPI x 8
200 Gb/秒 HDR InfiniBand
に対応するユニバーサル システムです。6U のフォーム ファクターで 5 petaFLOPS の AI デュアルポート
パフォーマンスを発揮し、従来のコンピューティング インフラストラクチャに代わる 1 つの統合 Mellanox ConnectX-6 VPI x 1
システムとして、計算処理密度の新たな水準を確立します。また、NVIDIA A100 Tensor コア 10/25/50/100/200
GPU に搭載されたマルチインスタンス GPU 機能を利用することにより、コンピューティング Gb/秒 Ethernet
パワーをきめ細かく配分するかつてない性能を実現します。これにより、管理者は特定のワーク ストレージ OS: 1.92 TB M.2
NVME ドライブ x 2
ロードに適したサイズのリソースを割り当てられるようになり、シンプルなものや小さなものだ
内部ストレージ: 15 TB
けでなく、大規模かつ非常に複雑なジョブも確実にサポートできます。NGC の最適化されたソ (3.84 TB x 4) U.2 NVME ドライブ
フトウェアで DGX ソフトウェア スタックが実行され、高密度な計算能力と完全なワークロード ソフトウェア Ubuntu Linux OS
の柔軟性を組み合わせることにより、シングル ノードでの展開にも、NVIDIA DeepOps で展 重量 123 kg
開された大規模な Slurm クラスターや Kubernetes クラスターにも最適な選択肢となって 梱包重量 143 kg
います。 サイズ 全高: 264.0 mm
全幅: 482.3 mm
NVIDIA DGXperts へのダイレクト アクセス 奥行: 897.1 mm
運用温度範囲 5ºC ~ 30ºC
NVIDIA DGX A100 は、単なるサーバーではありません。DGX の世界最大の実験場である
NVIDIA DGX SATURNV で得られた知識に基づいて構築された、ハードウェアとソフトウェア
の完成されたプラットフォームです。そして、NVIDIA の何千人もの DGXperts によるサポー
トを提供します。DGXpert は AI に精通した専門家で、役立つアドバイスや設計に関する専門
知識を提供し、AI 変革の加速に向けて支援します。過去 10 年にわたって蓄積してきた豊富な
ノウハウと経験を活かし、お客様が DGX への投資から最大限の価値を引き出せるようお手伝
いします。DGXpert のサポートによって、重要なアプリケーションを迅速に実行し、スムーズな
運用を維持し、インサイトを得るまでの時間を飛躍的に短縮することができます。
NVIDIA DGX A100 | データ シート | 2020 年 5 月
Page2
最速での解決
6 倍のトレーニング性能
8 つの NVIDIA A100 Tensor コア GPU を搭載する NVIDIA
DGX A100 は、これまでにないアクセラレーションを提供し、 NVIDIA DGX A100 TF32 6 倍 1,289 Seq/秒
NVIDIA CUDA-X™ ソフトウェアとエンドツーエンドの NVIDIA V100 x 8 FP32 216 Seq/秒
データセンター ソリューション スタックに完全に最適化されて 0 300 600 900 1200 1500
います。NVIDIA A100 GPU は、FP32 と同じように動作する トレーニング
NLP: BERT-Large
TF32 という新しい精度を利用して、前世代の 20 倍の演算速度 フェーズ 1( 2/3) とフェーズ 2( 1/3) から成る PyTorch を使用した BERT 事前トレーニング性能 | フェーズ 1 シーケンス長 = 128、
の AI を実現します。そして最大の特長は、コードを変更すること フェーズ 2 シーケンス長 = 512 | V100: 8 基の V100 を搭載した DGX-1、FP32 精度を使用 | DGX A100: 8 基の A100 を搭載した
DGX A100、TF32 精度を使用
なくこの高速化が実現できる点です。NVIDIA の自動混合精度
機能を使用すれば、FP16 精度を使用するコードを 1 行追加す
るだけで、さらに 2 倍の性能が得られます。また、クラス随一の
毎秒 1.6 テラバイト( TB/秒) のメモリ帯域幅を備えており、こ
れは前世代と比較すると 70% もの増加となります。さらに、前 172 倍の推論性能
世代の 7 倍以上となる 40 MB のレベル 2 キャッシュをはじめ NVIDIA DGX A100 172 倍 10 petaOPS
とするオンチップ メモリを大幅に増強し、計算パフォーマンスを CPU サーバー 58 TOPS
最大化しています。DGX A100 は次世代の NVIDIA NVLink™
0 2,000 4,000 6,000 8,000 10,000 12,000
を初めて搭載し、GPU 間の直接帯域幅を毎秒 600 ギガバイト 推論:
(GB/秒) に倍増させています。これは、PCIe Gen 4 のほぼ Peak Compute
CPU サーバー: 2 基の Intel Platinum 8280、INT8 を使用 | DGX A100: 8 基の A100 を搭載した DGX A100、
10 倍に相当します。他にも、前世代の 2 倍の速度を持つ次世代 Structural Sparsity による INT8 を使用
の NVIDIA NVSwitch も搭載しています。このかつてないパ
ワーによって、最短でソリューションを実現でき、これまで不可能
だったり、現実的ではなかったりした課題に取り組めるようになり
ます。
13 倍のデータ分析性能
世界で最も安全なエンタープライズ向け NVIDIA DGX A100 13 倍 6,880 億グラフ エッジ/秒
AI システム GPU クラスター 520 億グラフ エッジ/秒
NVIDIA DGX A100 は、あらゆる主要なハードウェアおよびソフ 0 100 200 300 400 500 600 700 800
トウェア コンポーネントを保護する多層的なアプローチによっ 分析:
PageRank
て、AI を活用する企業において最も堅牢なセキュリティ体制を 3,000 台の CPU サーバーと 4 台の DGX A100 の比較 | 公開されている Common Crawl データセット: 128 B エッジ、
2.6 TB グラフ
実現します。ベースボード管理コントローラー( BMC)、CPU
ボード、GPU ボード、自動暗号化ドライブ、セキュア ブートなど、
幅広いセキュリティ機能が組み込まれているため、IT 部門は脅威
の評価や軽減に時間を費やすことなく、AI の運用に集中でき
ます。 レーテッド コンピューティングと、最先端のネットワーキング ハードウェアおよびソフ
トウェアの最適化を組み合わせることで、数百、数千ノードにまでスケールアップが可
Mellanox によるデータセンターの 能になり、対話型 AI や大規模な画像分類などの難易度の高い課題に対応できます。
比類なきスケーラビリティ
信頼できるデータセンターの
DGX システムの中で最速の I /O アーキテクチャを備えた
NVIDIA DGX A100 は、NVIDIA DGX SuperPOD™ のよう リーダー企業と共に構築された
な大規模な AI クラスターのための基本構成要素となり、企業 実証済みのインフラストラクチャ ソリューション
は拡張性の高い AI インフラストラクチャの計画を策定できま ストレージとネットワーキングの技術を誇るリーディング プロバイダーとの連携によ
す。DGX A100 は、クラスタリング用に 8 つのシングルポート り、NVIDIA が提供しているインフラストラクチャ ソリューションのポートフォリオに、
Mellanox ConnectX-6 VPI HDR InfiniBand アダプター NVIDIA DGX POD™ の最高クラスのリファレンス アーキテクチャが加わりました。
と、ストレージとネットワーキング用に 1 つのデュアルポート これらのソリューションは、NVIDIA パートナー ネットワークを通じて、すぐに導入可
ConnectX-6 VPI Ethernet アダプターを備えており、いずれ 能な完全統合型サービスとして提供されるため、より簡単かつ迅速に AI をデータセ
も毎秒 200 Gb の性能を発揮します。大規模な GPU アクセラ ンターに導入できます。
NVIDIA DGX A100 の詳細については、www.nvidia.com/ja-jp/data-center/dgx-a100/ をご覧ください。
© 2020 NVIDIA Corporation.All rights reserved.NVIDIA、NVIDIA のロゴ、NVIDIA DGX A100、NVLink、DGX SuperPOD、DGX POD、CUDA は、NVIDIA
Corporation の商標または登録商標です。すべての会社名および製品名は、関係各社の商標または登録商標です。機能、価格、提供状況、および仕様は予告なしに
変更されることがあります。2020 年 5 月