1/2ページ
カタログの表紙
カタログの表紙

このカタログをダウンロードして
すべてを見る

ダウンロード(1.4Mb)

世界最速のAIインフラストラクチャ NVIDIA DGX A100

製品カタログ

このカタログについて

ドキュメント名 世界最速のAIインフラストラクチャ NVIDIA DGX A100
ドキュメント種別 製品カタログ
ファイルサイズ 1.4Mb
登録カテゴリ
取り扱い企業 東京エレクトロンデバイス株式会社 (この企業の取り扱いカタログ一覧)

この企業の関連カタログ

この企業の関連カタログの表紙
安全で快適な無線LANの構築~工場無線化の3つのポイント~
ハンドブック

東京エレクトロンデバイス株式会社

この企業の関連カタログの表紙
AI活用の3重苦を解消し、飛躍的に進むための秘訣とは?
ホワイトペーパー

東京エレクトロンデバイス株式会社

この企業の関連カタログの表紙
AI開発者必見! AIパイプラインに最適なプラットフォームとは?
ホワイトペーパー

東京エレクトロンデバイス株式会社

このカタログの内容

Page1

NVIDIA DGX A100 AI インフラストラクチャ向けの ユニバーサル システム エンタープライズ AI のスケーリングへの挑戦 システムの仕様 あらゆるビジネスで、人工知能(AI)を活用した変革が求められています。それは、困難な時代 GPU NVIDIA A100 Tensor コア GPU x 8 に生き残るためだけではなく、飛躍を遂げるためでもあります。ただし、そのためには、従来の GPU メモリ 総計 320 GB アプローチを改善する AI インフラストラクチャ用のプラットフォームが必要です。これまでは、 パフォーマンス AI で 5 petaFLOPS 分析、トレーニング、推論のワークロードごとにサイロ化された低速のコンピューティング アー INT8 で 10 petaOPS キテクチャが採用されていましたが、このアプローチでは、複雑さとコストが増大し、スケーリン NVIDIA NVSwitch 6 グの速度が制限され、現代の AI には対応できていませんでした。企業、開発者、データ サイエ 消費電力 6.5 kW( 最大) ンティスト、研究者に本当に必要なのは、すべての AI ワークロードを統合し、インフラストラク CPU Dual AMD Rome チャを簡素化し、ROI を向上させる新たなプラットフォームです。 7742、総計 128 コア、 2.25 GHz( ベ ース)、3.4 GHz( 最大ブースト) システム メモリ 1 TB あらゆる AI ワークロードに対応するユニバーサル システム ネットワーク シングルポート NVIDIA DGX™ A100 は、分析からトレーニング、推論に至るまで、あらゆる AI ワークロード Mellanox ConnectX-6 VPI x 8 200 Gb/秒 HDR InfiniBand に対応するユニバーサル システムです。6U のフォーム ファクターで 5 petaFLOPS の AI デュアルポート パフォーマンスを発揮し、従来のコンピューティング インフラストラクチャに代わる 1 つの統合 Mellanox ConnectX-6 VPI x 1 システムとして、計算処理密度の新たな水準を確立します。また、NVIDIA A100 Tensor コア 10/25/50/100/200 GPU に搭載されたマルチインスタンス GPU 機能を利用することにより、コンピューティング Gb/秒 Ethernet パワーをきめ細かく配分するかつてない性能を実現します。これにより、管理者は特定のワーク ストレージ OS: 1.92 TB M.2 NVME ドライブ x 2 ロードに適したサイズのリソースを割り当てられるようになり、シンプルなものや小さなものだ 内部ストレージ: 15 TB けでなく、大規模かつ非常に複雑なジョブも確実にサポートできます。NGC の最適化されたソ (3.84 TB x 4) U.2 NVME ドライブ フトウェアで DGX ソフトウェア スタックが実行され、高密度な計算能力と完全なワークロード ソフトウェア Ubuntu Linux OS の柔軟性を組み合わせることにより、シングル ノードでの展開にも、NVIDIA DeepOps で展 重量 123 kg 開された大規模な Slurm クラスターや Kubernetes クラスターにも最適な選択肢となって 梱包重量 143 kg います。 サイズ 全高: 264.0 mm 全幅: 482.3 mm NVIDIA DGXperts へのダイレクト アクセス 奥行: 897.1 mm 運用温度範囲 5ºC ~ 30ºC NVIDIA DGX A100 は、単なるサーバーではありません。DGX の世界最大の実験場である NVIDIA DGX SATURNV で得られた知識に基づいて構築された、ハードウェアとソフトウェア の完成されたプラットフォームです。そして、NVIDIA の何千人もの DGXperts によるサポー トを提供します。DGXpert は AI に精通した専門家で、役立つアドバイスや設計に関する専門 知識を提供し、AI 変革の加速に向けて支援します。過去 10 年にわたって蓄積してきた豊富な ノウハウと経験を活かし、お客様が DGX への投資から最大限の価値を引き出せるようお手伝 いします。DGXpert のサポートによって、重要なアプリケーションを迅速に実行し、スムーズな 運用を維持し、インサイトを得るまでの時間を飛躍的に短縮することができます。 NVIDIA DGX A100 | データ シート | 2020 年 5 月
Page2

最速での解決 6 倍のトレーニング性能 8 つの NVIDIA A100 Tensor コア GPU を搭載する NVIDIA DGX A100 は、これまでにないアクセラレーションを提供し、 NVIDIA DGX A100 TF32 6 倍 1,289 Seq/秒 NVIDIA CUDA-X™ ソフトウェアとエンドツーエンドの NVIDIA V100 x 8 FP32 216 Seq/秒 データセンター ソリューション スタックに完全に最適化されて 0 300 600 900 1200 1500 います。NVIDIA A100 GPU は、FP32 と同じように動作する トレーニング NLP: BERT-Large TF32 という新しい精度を利用して、前世代の 20 倍の演算速度 フェーズ 1( 2/3) とフェーズ 2( 1/3) から成る PyTorch を使用した BERT 事前トレーニング性能 | フェーズ 1 シーケンス長 = 128、 の AI を実現します。そして最大の特長は、コードを変更すること フェーズ 2 シーケンス長 = 512 | V100: 8 基の V100 を搭載した DGX-1、FP32 精度を使用 | DGX A100: 8 基の A100 を搭載した DGX A100、TF32 精度を使用 なくこの高速化が実現できる点です。NVIDIA の自動混合精度 機能を使用すれば、FP16 精度を使用するコードを 1 行追加す るだけで、さらに 2 倍の性能が得られます。また、クラス随一の 毎秒 1.6 テラバイト( TB/秒) のメモリ帯域幅を備えており、こ れは前世代と比較すると 70% もの増加となります。さらに、前 172 倍の推論性能 世代の 7 倍以上となる 40 MB のレベル 2 キャッシュをはじめ NVIDIA DGX A100 172 倍 10 petaOPS とするオンチップ メモリを大幅に増強し、計算パフォーマンスを CPU サーバー 58 TOPS 最大化しています。DGX A100 は次世代の NVIDIA NVLink™ 0 2,000 4,000 6,000 8,000 10,000 12,000 を初めて搭載し、GPU 間の直接帯域幅を毎秒 600 ギガバイト 推論: (GB/秒) に倍増させています。これは、PCIe Gen 4 のほぼ Peak Compute CPU サーバー: 2 基の Intel Platinum 8280、INT8 を使用 | DGX A100: 8 基の A100 を搭載した DGX A100、 10 倍に相当します。他にも、前世代の 2 倍の速度を持つ次世代 Structural Sparsity による INT8 を使用 の NVIDIA NVSwitch も搭載しています。このかつてないパ ワーによって、最短でソリューションを実現でき、これまで不可能 だったり、現実的ではなかったりした課題に取り組めるようになり ます。 13 倍のデータ分析性能 世界で最も安全なエンタープライズ向け NVIDIA DGX A100 13 倍 6,880 億グラフ エッジ/秒 AI システム GPU クラスター 520 億グラフ エッジ/秒 NVIDIA DGX A100 は、あらゆる主要なハードウェアおよびソフ 0 100 200 300 400 500 600 700 800 トウェア コンポーネントを保護する多層的なアプローチによっ 分析: PageRank て、AI を活用する企業において最も堅牢なセキュリティ体制を 3,000 台の CPU サーバーと 4 台の DGX A100 の比較 | 公開されている Common Crawl データセット: 128 B エッジ、 2.6 TB グラフ 実現します。ベースボード管理コントローラー( BMC)、CPU ボード、GPU ボード、自動暗号化ドライブ、セキュア ブートなど、 幅広いセキュリティ機能が組み込まれているため、IT 部門は脅威 の評価や軽減に時間を費やすことなく、AI の運用に集中でき ます。 レーテッド コンピューティングと、最先端のネットワーキング ハードウェアおよびソフ トウェアの最適化を組み合わせることで、数百、数千ノードにまでスケールアップが可 Mellanox によるデータセンターの 能になり、対話型 AI や大規模な画像分類などの難易度の高い課題に対応できます。 比類なきスケーラビリティ 信頼できるデータセンターの DGX システムの中で最速の I /O アーキテクチャを備えた NVIDIA DGX A100 は、NVIDIA DGX SuperPOD™ のよう リーダー企業と共に構築された な大規模な AI クラスターのための基本構成要素となり、企業 実証済みのインフラストラクチャ ソリューション は拡張性の高い AI インフラストラクチャの計画を策定できま ストレージとネットワーキングの技術を誇るリーディング プロバイダーとの連携によ す。DGX A100 は、クラスタリング用に 8 つのシングルポート り、NVIDIA が提供しているインフラストラクチャ ソリューションのポートフォリオに、 Mellanox ConnectX-6 VPI HDR InfiniBand アダプター NVIDIA DGX POD™ の最高クラスのリファレンス アーキテクチャが加わりました。 と、ストレージとネットワーキング用に 1 つのデュアルポート これらのソリューションは、NVIDIA パートナー ネットワークを通じて、すぐに導入可 ConnectX-6 VPI Ethernet アダプターを備えており、いずれ 能な完全統合型サービスとして提供されるため、より簡単かつ迅速に AI をデータセ も毎秒 200 Gb の性能を発揮します。大規模な GPU アクセラ ンターに導入できます。 NVIDIA DGX A100 の詳細については、www.nvidia.com/ja-jp/data-center/dgx-a100/ をご覧ください。 © 2020 NVIDIA Corporation.All rights reserved.NVIDIA、NVIDIA のロゴ、NVIDIA DGX A100、NVLink、DGX SuperPOD、DGX POD、CUDA は、NVIDIA Corporation の商標または登録商標です。すべての会社名および製品名は、関係各社の商標または登録商標です。機能、価格、提供状況、および仕様は予告なしに 変更されることがあります。2020 年 5 月