NVIDIA DGX™ プラットフォーム
NVIDIA DGX™ B200/H200/H100
NVIDIA DGX™ プラットフォーム NVIDIA DGX™ B200/H200/H100
NVIDIA DGX™
B200について

NVIDIA DGX™ B200はNVIDIA DGX™ プラットフォームに追加された最新の統合AIプラットフォームです。
これを利用することで、企業データサイエンティストや開発者に汎用的なAIスーパーコンピューターを与えることになり、洞察を得るまでの時間を短縮させることが可能です。
ビジネスにAIを十分活用することができます。
NVIDIA DGX™ B200の特徴
-
開発からデプロイまで
1つのプラットフォーム企業は、トレーニングからファインチューニングに推論まで、AI パイプラインのあらゆる段階で複雑な AI データセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX™ B200 があれば、ワークフローを高速化するように作られた1つのプラットフォームを企業は開発者に与えることができます。
-
究極の
AI パフォーマンスNVIDIA Blackwell アーキテクチャの高度なコンピューティングを活用する NVIDIA DGX™ B200は、NVIDIA DGX™ H100と比較してそのトレーニングパフォーマンスが3倍、推論パフォーマンスが25倍となります。NVIDIA DGX BasePOD™ や NVIDIA DGX SuperPOD™ の土台である NVIDIA DGX™ B200は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。
-
実証済みの
インフラストラクチャ標準NVIDIA DGX™ B200は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、豊富なサードパーティ サポートのエコシステム、および NVIDIA プロフェッショナル サービスによる専門家のアドバイスへのアクセスを含む、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。
NVIDIA DGX™ H200について

DGX プラットフォームの一部であり、NVIDIA DGX SuperPOD™ や DGX BasePOD™ の基盤となっている NVIDIA DGX™ H200は、NVIDIA H200 Tensor コア GPU の画期的なパフォーマンスにより高速化された、AI対応の高性能製品です。
データシートのダウンロードNVIDIA DGX™ H200の詳細

-
1
8x NVIDIA H200 GPU、
合計 GPU メモリ 1,128GB18x NVIDIA® NVLinks®
接続/GPU、
GPU 間の双方向帯域幅 900GB/秒 -
2
4x NVIDIA NVSwitch™
GPU 間の双方向帯域幅 7.2TB/秒、
前世代の1.5倍 -
3
10x NVIDIA ConnectX®-7、
400Gb/秒のネットワーク
インターフェイスピーク時の双方向ネットワーク
帯域幅 1TB/秒 -
4
デュアル Intel Xeon Platinum
8480C プロセッサ、合計112個の
コア、2TB システム
メモリAI への依存度が
非常に高い仕事を
可能にするパワフルな CPU -
5
30TB NVMe SSD
最高の
パフォーマンスのための
高速ストレージ
NVIDIA DGX™
H100について

世界のAIインフラを支える新しいエンジンNVIDIA H100を搭載したNVIDIA DGX™ H100は大規模な組織へ最高の AI 環境を提供します。
世界で最も成功したエンタープライズAI専用システムの第4世代です。
NVIDIA DGX™ H100の詳細

-
1
NVIDIA H100 GPU x8
合計 GPU メモリ 640GBGPU あたり 12 NVIDIA® NVLinks®、
GPU 間の双方向帯域幅 900GB/秒 -
2
NVIDIA
NVSWITCHES™ x47.2 テラバイト/秒の GPU 間双方向帯域幅、
前世代比 1.5 倍以上 -
3
NVIDIA ConnectX-7 Single Port Infiniband Card x8
および、NVIDIA ConnectX-7
Dual Port Ethernet cards x2ピーク時の双方向ネットワーク
帯域幅 1TB/秒 -
4
デュアル x86 CPU と
2TB システム メモリAI への依存が
非常に高い仕事を
可能にするパワフルな CPU -
5
30TB NVME SSD
最高のパフォーマンスを
実現するための
高速ストレージ
製品 比較表
Specification | NVIDIA DGX™ H100 | NVIDIA DGX™ H200 | NVIDIA DGX™ B200 |
---|---|---|---|
GPUs | 8x NVIDIA H100 GPUs | 8x NVIDIA H200 GPUs | 8x NVIDIA Blackwell GPUs |
TFLOPS | 32 Peta FLOPS FP8 | 72 petaFLOPS FP8 training and 144 peta FLOPS FP4 inference |
|
GPU Memory | 80GB per GPU/640 GB per DGX H100 Node |
141GB per GPU/1,128 GB per DGX H200 Node |
1,440GB total, 64TB/s HBM3e bandwidth |
System Memory | 2TB | 2TB | 2TB, configurable to 4TB |
Storage | Data cache drives: 30TB (8x3.84TB) OS drives: 2x 1.92TB NVME SSDs |
Data cache drives: 30TB (8x3.84TB) OS drives: 2x 1.92TB NVME SSDs |
Internal storage: 8x 3.84TB NVMe U.2 OS: 2x 1.9TB NVMe M.2 |
Network | 4 x OSFP ports for 8 NVIDIA ConnectX-7 Single Port InfiniBand cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps 2 x NVIDIA ConnectX-7 Dual Port Ethernet cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps |
4 x OSFP ports for 8 NVIDIA ConnectX-7 Single Port InfiniBand cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps 2 x NVIDIA ConnectX-7 Dual Port Ethernet cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps |
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA BlueField-3 DPU Up to 400Gb/s InfiniBand/Ethernet |
Cooling | Air |