1/2ページ

このカタログをダウンロードして
すべてを見る

ダウンロード(919.3Kb)

HPC、Deep Learning に威力を発揮するハイエンドGPUサーバー「HPC5000-XSLGPU4R1S-NVL」

製品カタログ

超高速インターコネクト NVLink対応GPU Tesla® P100 SXM2を4基搭載

このカタログについて

ドキュメント名 HPC、Deep Learning に威力を発揮するハイエンドGPUサーバー「HPC5000-XSLGPU4R1S-NVL」
ドキュメント種別 製品カタログ
ファイルサイズ 919.3Kb
登録カテゴリ
取り扱い企業 HPCシステムズ株式会社 (この企業の取り扱いカタログ一覧)

このカタログの内容

Page1

全ての研究開発者に計算力を提供する HPC(ハイパフォーマンスコンピューティング) ハイエンド GPU サーバー HPC5000-XSLGPU4R1S-NVL 超高速インターコネクト NVLink 対応 GPU Tesla® P100 SXM2 を 4 基搭載 HPC、Deep Learning に威力を発揮するハイエンド GPU サーバー 製品サイズ W:437mm D:894mm NVIDIA® Tesla® P100 特 長 ● 新世代 GPU NVIDIA® Tesla® P100 NVLink 対応モデルを 4 基搭載可能 ● インテル ® Xeon® スケーラブル・プロセッサー対応 ● 最大 2CPU、最大 768GB メモリ搭載可能 ● 安定的な運用を確保する冗長化電源を搭載(80PLUS TITANIUM 認証取得) ● IPMI2.0 が 高度な遠隔監視、操作を実現 ● 省スペースな 1U ラックマウント筐体 ● IPMI2.0 が高度な遠隔監視、操作を実現 H:43mm
Page2

HPC5000-XSLGPU4R1S-NVL 製品仕様 NVIDIA® Tesla® P100 NVLink 対応モデルを最大 4 基搭載 製品名 HPC5000-XSLGPU4R1S-NVL HPC5000-XSLGPU4R1S-NVL は、 新アーキテクチャ 「Pascal」 をベースとした最新の数値演算アクセ Ubuntu 16.04 LTS ( 推奨 OS) ラレータ NVIDIA® Tesla® P100 SXM2(NVLink 対応モデル)を最大 4 基搭載することができます。 OS Ubuntu 14.04 LTS ※ CentOS、 Red Hat Enterprise Linux を希望される場合は、 別途ご相談ください。 製品名 Tesla P100 for NVLink-enabled Servers アーキテクチャ Pascal インテル ® Xeon® スケーラブル ・ プロセッサー プロセッサー ※搭載できる CPU モデル(プロセッサー ・ ナンバー)に制限がある場合があります。 CUDA コア 3584 ※ CPU モデル(プロセッサー ・ ナンバー)によって設置環境に制限がある場合があります。 コアクロック 1.328GHz(GPU Boost 時最大 1.480GHz) プロセッサー搭載数 最大 2CPU(56 コア ) 倍精度浮動小数点演算性能 4.76TFLOPS(GPU Boost 時 5.30TFLOPS) プロセッサー冷却方式 空冷式 単精度浮動小数点演算性能 9.52TFLOPS(GPU Boost 時 10.61TFLOPS) チップセット インテル ® C621 半精度浮動小数点演算性能 19.04TFLOPS(GPU Boost 時 21.22TFLOPS) 768GB (64GB DDR4-2666 ECC LRDIMM × 12) NVLink 帯域幅 160GB/s(双方向)※ 384GB (32GB DDR4-2666 ECC Registered × 12) メモリ PCIe x16 帯域幅 32GB/s(双方向) 192GB (16GB DDR4-2666 ECC Registered × 12) メモリ容量 16GB 96GB (8GB DDR4-2666 ECC Registered × 12) メモリ帯域幅 732GB/s メモリスロット 12DIMMスロット/DDR4-2666 ECC LRDIMM (64GB), DDR4-2666 ECC Registered (8,16,32GB) 消費電力 300W GPU NVIDIA® Tesla® P100 for NVLink-enabled Servers ※ NVIDIA® Tesla® P100 for NVLink-enabled Servers(GP100)は、 高速インターコネクト 「NVLink」 を 4 リンク備えています。 GPU 搭載数 4 基 NVLink による GPU 間の接続帯域幅は 1 リンクあたり双方向 40GB/s。 4 リンク合計で双方向 160GB/s となります。 標準:240GB SSD (2.5 型 , SATA) × 2 ハードディスクドライブ搭載数 ※ HDD/SSD (2.5 型 , SATA) を最大 2 台搭載可能 インテル ® Xeon® スケーラブル ・ プロセッサーを 2CPU 搭載 ※ RAID アレイコントローラー ( オプション ) 増設時、 SAS HDD 使用可能 HPC5000-XSLGPU8R4S-NVL は、 14nm 世代のインテル ® Xeon® スケーラブル ・ プロセッサーを 光学ドライブ なし 2CPU 搭載しています。 グラフィックス Aspeed AST2500 VGA [D-sub15 ピン ] ( 背面 ) × 1 最大 768GB メモリ搭載可能 USB3.0 ( 背面 ) × 2インターフェイス per node HPC5000-XSLGPU4R1S-NVL は、 64GB メモリモジュールを 12 本のメモリスロットに搭載する事で最 ネットワーク [GbE ポート ] ( 背面 ) × 2 大768GBのメモリ容量を確保します。メモリ性能を必要とする大規模な計算でパフォーマンスを発揮します。 IPMI2.0 ポート [RJ45] ( 背面 ) × 1 拡張スロット PCI-Express 3.0 (x16) × 4 2.5 型 HDD/SSD を 2 台まで搭載 電源ユニット 2000W 冗長化電源 (80PLUS TITANIUM 認証取得 ) HPC5000-XSLGPU4R1S-NVL は、 2.5 型 HDD/SSD を 2 台まで搭載可能です。 AC ケーブル 200V 用 AC ケーブルを 2 本添付/ IEC320-C13 ⇒ IEC320-C14 ※標準構成では 240GB SSD を 2 台搭載しています。 AC コネクタタイプ IEC 320-C14 最大消費電力 1828W 最上位 80PLUS TITANIUM 認証を取得した高効率電源を搭載 筐体タイプ ラックマウントタイプ (1U) HPC5000-XSLGPU4R1S-NVL は、 80PLUS で最上位ランクの 80PLUS TITANIUM 認証を取得 サイズ(縦幅×横幅×奥行) 43mm × 437mm × 894mm した高効率な電源を搭載しています。 80PLUS 認証とは、交流から直流への変換効率を保証するものです。 ※筐体の奥行きがあるため、 使用できるラックに制限があります。 詳細はお問い合わせください。 80PLUS TITANIUM 認証は、 負荷率 10% /20% /50% /100%でそれぞれ 90% /92% /94% /90% 重量 16 kg という高い変換効率基準をクリアしたものだけに与えられます。 200V 用 AC ケーブル × 2 USB キーボード ( 日本語または英語 ) × 1 冗長化電源搭載による高い障害耐性 附属品 USB 光学式スクロールマウス × 1 HPC5000-XSLGPU4R1S-NVL は、 100V から 240V に対応した 2000W 電源ユニットを 2 個搭載し、 取扱説明書 一方の電源ユニットに障害が発生した場合でもサーバーの運転を継続するための電力を充分に供給できる 保証書 冗長性を持っています。これにより万が一の電源ユニット障害によるダウンタイムを最小限に抑えることが出来ます。 RAID アレイコントローラー 2.5 型 SSD ( フラッシュメモリドライブ ) IPMI2.0 が高度な遠隔監視、 操作を実現 オプション InfiniBand FDRDVD-RW ドライブ 標準搭載された IPMI2.0 機能は専用の LAN ポートを備え、 リモートによる温度、 電力、 ファンの動作、 各種ディスプレイ CPU エラー、 メモリーエラーの監視を可能にします。 また電源のオンオフ、 コンソール操作を遠隔から行うことが 保証 3 年間センドバック保守 できます。 これらの機能によりシステムの信頼性、 可用性を高め、 ダウンタイムとメインテナンス費用を圧縮 することを可能にします。 販売店 深層学習に必要な主なソフトウェアのインストールサービスが付属します 本製品には、 深層学習に必要な主なソフトウェアのインストールサービス※が付属します。 OS:Ubuntu 16.04 LTS または Ubuntu 14.04 LTS CUDA Toolkit:CUDA を拡張した GPU コンパイラーやライブラリー、 ドライバー、 ツールなどが含む統合開発環境 cuDNN:Deep Neural Network(DNN)用の CUDA ライブラリー Caffe/PyCaffe:オープンソースの Deep Learning Framework および Python で使うための PyCaffe Torch:古くからあるオープンソースの Deep Learning Framework Chainer:Prefered Networks が開発したオープンソースの Deep Learning Framework TensorFlow:Google の AI 開発環境を一般向けにカスタマイズしたオープンソースの Deep Learning Framework DIGITS:Deep Neural Network の構築がすばやく簡単に行えるソフトウェア NCCL:マルチ GPU 集合通信ライブラリー ※ライセンス許諾契約手続きはお客様ご自身でお願いいたします。 詳しくはお問い合わせください。 CUDA 対応アプリケーション 多くのアプリケーションが続々と CUDA に対応しています。 HPC システムズの HPC5000-XSLGPU4R1S- NVL なら、 CUDA 化されたアプリケーションの活用に最適です。 HPC システムズ株式会社 ■ この内容は、2017 年 9 月 1 日現在の内容です。 〒 108-0022 東京都港区海岸 3-9-15 LOOP-X 8 階 ■ 価格、写真、仕様等は予告なく変更する場合があります。商品の色調は実際と異なる場合があります。 TEL:03-5446-5531 FAX:03-5446-5550 ■ 社名、製品名などは、一般に各社の表示、商標または登録商標です。 Mail:hpcs_sales@hpc.co.jp ■ Intel、インテル、Intel ロゴ、Intel Inside、Intel Inside ロゴ、Xeon、Xeon Inside は、アメリカ合衆国およびその他の国における Intel Corporation の商標です。