NVIDIA DGX™ プラットフォーム
NVIDIA DGX™ B300/B200/H200
NVIDIA DGX™ プラットフォーム NVIDIA DGX™ B300/B200/H200
NVIDIA DGX™
B300について
NVIDIA DGX SuperPODを構成するNVIDIA DGX B300はNVIDIA Blackwell Ultra GPUを搭載。AI推論の計算要件を満たすようにカスタマイズされた専門のAIインフラストラクチャソリューションです。
最新のデータセンターに適合するように設計されておりDGX B200 と比べて高密度 FP4 パフォーマンスが 1.5 倍、アテンション パフォーマンスが 2 倍向上します。
NVIDIA DGX™ B300の特徴
-
LLM 推論のための
リアルタイム・パワーハウスNVIDIA Blackwell Ultra GPUを搭載し、144 petaFLOPS の推論パフォーマンスを実現。企業のAIワークロードをハイパースケーラー級のスピードと効率で処理します。
-
効率的で持続可能な
イノベーション業界最高クラスのエネルギー効率に加え、設備に合わせて選べる柔軟な電力オプションを採用。既存のインフラを活かしながら、持続可能なAI運用を実現します。
-
革新的インフラストラクチャ
スタンダードの創出DGX B300はNVIDIA MGXラックに収まるように再設計され最新のデータセンターに導入可能。将来の拡張にも柔軟に対応できるAI基盤の標準モデルです。
NVIDIA DGX™
B200について
NVIDIA DGX™ B200はNVIDIA DGX™ プラットフォームに追加された最新の統合AIプラットフォームです。
これを利用することで、企業データサイエンティストや開発者に汎用的なAIスーパーコンピューターを与えることになり、洞察を得るまでの時間を短縮させることが可能です。
ビジネスにAIを十分活用することができます。
NVIDIA DGX™ B200の特徴
-
開発からデプロイまで
1つのプラットフォーム企業は、トレーニングからファインチューニングに推論まで、AI パイプラインのあらゆる段階で複雑な AI データセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX™ B200 があれば、ワークフローを高速化するように作られた1つのプラットフォームを企業は開発者に与えることができます。
-
究極の
AI パフォーマンスNVIDIA Blackwell アーキテクチャの高度なコンピューティングを活用する NVIDIA DGX™ B200は、NVIDIA DGX™ H100と比較してそのトレーニングパフォーマンスが3倍、推論パフォーマンスが25倍となります。NVIDIA DGX BasePOD™ や NVIDIA DGX SuperPOD™ の土台である NVIDIA DGX™ B200は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。
-
実証済みの
インフラストラクチャ標準NVIDIA DGX™ B200は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、豊富なサードパーティ サポートのエコシステム、および NVIDIA プロフェッショナル サービスによる専門家のアドバイスへのアクセスを含む、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。
NVIDIA DGX™ H200について
DGX プラットフォームの一部であり、NVIDIA DGX SuperPOD™ や DGX BasePOD™ の基盤となっている NVIDIA DGX™ H200は、NVIDIA H200 Tensor コア GPU の画期的なパフォーマンスにより高速化された、AI対応の高性能製品です。
データシートのダウンロードNVIDIA DGX™ H200の詳細
-
1
8x NVIDIA H200 GPU、
合計 GPU メモリ 1,128GB18x NVIDIA® NVLinks®
接続/GPU、
GPU 間の双方向帯域幅 900GB/秒 -
2
4x NVIDIA NVSwitch™
GPU 間の双方向帯域幅 7.2TB/秒、
前世代の1.5倍 -
3
10x NVIDIA ConnectX®-7、
400Gb/秒のネットワーク
インターフェイスピーク時の双方向ネットワーク
帯域幅 1TB/秒 -
4
デュアル Intel Xeon Platinum
8480C プロセッサー、合計112個の
コア、2TB システム
メモリAI への依存度が
非常に高い仕事を
可能にするパワフルな CPU -
5
30TB NVMe SSD
最高の
パフォーマンスのための
高速ストレージ
製品 比較表
| Specification | NVIDIA DGX™ B300 | NVIDIA DGX™ B200 | NVIDIA DGX™ H200 |
|---|---|---|---|
| GPUs | NVIDIA Blackwell Ultra GPU | 8x NVIDIA Blackwell GPUs | 8x NVIDIA H200 GPUs |
| TFLOPS | 144 petaFLOPS of FP4 inference performance 72 peta FLOPS of FP8 training performance |
72 petaFLOPS FP8 training and 144 peta FLOPS FP4 inference |
32 Peta FLOPS FP8 |
| GPU Memory | 2.3 TB | 1,440GB total, 64TB/s HBM3e bandwidth |
141GB per GPU/1,128 GB per DGX H200 Node |
| System Memory | 2TB, configurable to 4TB | 2TB | |
| Storage | OS: 2x 1.9TB NVMe M.2 Internal: 8x 3.84TB NVMe E1S |
Internal storage: 8x 3.84TB NVMe U.2 OS: 2x 1.9TB NVMe M.2 |
Data cache drives: 30TB (8x3.84TB) OS drives: 2x 1.92TB NVME SSDs |
| Network | 8 x OSFP ports serving 8x NVIDIA ConnectX-8 VPI Up to 800Gb/s of NVIDIA InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA BlueField®-3 DPU Up to 400Gb/s of NVIDIA InfiniBand/Ethernet 2TB, configurable to 4TB |
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA BlueField-3 DPU Up to 400Gb/s InfiniBand/Ethernet |
4 x OSFP ports for 8 NVIDIA ConnectX-7 Single Port InfiniBand cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps 2 x NVIDIA ConnectX-7 Dual Port Ethernet cards Ethernet: 400/200/100/50/40/ 25/10Gb/s InfiniBand: Up to 400Gbps |
| Cooling | Air | ||