GPU製品 / サービス

NVIDIA DGX Systems

NVIDIA DGX Systems

「NVIDIA DGX™ Systems」は、アプライアンス型のスーパーコンピューターです。

AI/ディープラーニングにおいて最高の性能を発揮できるよう、GPU/CPUを含めたハードウェア構成が統一的に設計されており、DGXに最適化されたミドルウェア/ソフトウェアがプリインストールされています。さらに、NVIDIAエンジニアによるエンタープライズサポートも付与されています。

これにより、GPUプラットフォームの設計/構築に時間をかけることなく、スピーディかつ容易な研究開発・サービス運用を行うことが可能になります。

2025 Best NPN of the Year 受賞

生成AI/LLM開発のためのGPUクラスタ基盤については、当社「トレンドコラム」でも紹介しています。ぜひご覧ください。

生成AI/LLMの開発を加速するGPUクラスタ

Blackwellアーキテクチャの拡張性

カテゴリ 型番 画像 構成 詳細
GPUカード NVIDIA B200 GPU NVIDIA B200 GPU ・Blackwell×2基を1パッケージに統合 Technical Brief
Superchip NVIDIA GB200 Superchip NVIDIA GB200 Superchip ・Blackwell GPU×2基
・Grace CPU×1基
Technical Brief
ワークステーション NVIDIA DGX™ Spark NVIDIA DGX™ Spark ・GPU/CPU:NVIDIA GB10 Grace Blackwell Superchip
・Memory:128GB LPDDR5X
・Storage:1TB or 4TB NVMe M.2
・Network:NVIDIA🄬 ConnectX🄬-7
・Software:NVIDIA DGX™ Base OS
Product page
ワークステーション NVIDIA DGX Station NVIDIA DGX Station ・GPU:NVIDIA Blackwell Ultra ×1
・CPU:Grace-72 コア Neoverse V2 ×1
・Network:NVIDIA🄬 ConnectX🄬-8
・Software:NVIDIA DGX™ Base OS
Product page
サーバー NVIDIA GB200 NVL2 NVIDIA GB200 NVL2 ・GPU:NVIDIA Blackwell GPU×2
・CPU:Grace CPU×2
・Memory:最大960GB LPDDR5X
Product page
サーバー NVIDIA DGX™ B200 NVIDIA B200 GPU ・GPU:NVIDIA B200 GPU×8
・CPU:Intel🄬 Xeon🄬 Platinum 8570 CPU×2
・Memory:37.9TB
・Network:NVIDIA ConnectX🄬-7 VPI ×4
      NVIDIA BlueField🄬-3 DPU ×2
・Storage:1.9TB NVMe M.2 ×2
      3.84TB NVMe U.2 ×8
・Software:NVIDIA DGX OS
      NVIDIA AI Enteprise
      NVIDIA Base command™
Data Sheet
サーバー NVIDIA DGX™ B300 NVIDIA DGX™ B300 ・GPU:NVIDIA Blackwell Ultra
・CPU:Intel🄬 Xeon🄬 Processor ×2
・Storage:1.9TB NVMe M.2 ×2
      3.84TB NVMe E1.S ×8
・Network:NVIDIA🄬 ConnectX🄬-8 VPI ×8
      NVIDIA BlueField🄬-3 DPU ×2
・Software:NVIDIA DGX™ Base OS
      NVIDIA Mission Control
      NVIDIA Base Command Manager
      NVIDIA AI Enterprise
Product page
サーバー NVIDIA DGX™ GB300 NVIDIA DGX™ GB300 ・GPU:NVIDIA Blackwell Ultra ×72
・CPU:Grace-72 コア Neoverse V2 ×36
・Memory:37.9TB
・Network:NVIDIA🄬 ConnectX🄬-8 ×72
      NVIDIA BlueField🄬-3  ×18
・Software:NVIDIA DGX™ Base OS
      NVIDIA Mission Control
      NVIDIA AI Enterprise
Product page
ラック NVIDIA GB200 NVL72 NVIDIA GB200 NVL72 ・GPU:NVIDIA Blackwell GPU ×72
・CPU:Grace Neoverse V2 ×36
・Network:NVIDIA🄬 ConnectX🄬-7 VPI ×72
      NVIDIA BlueField🄬-3 VPI ×36
・Software:NVIDIA DGX OS
      NVIDIA AI Enteprise
      NVIDIA Base command™
Product page
ラック NVIDIA GB300 NVL72 NVIDIA GB300 NVL72 ・GPU:NVIDIA Blackwell Ultra ×72
・CPU:Grace-72 コア Neoverse V2 ×36
・Memory:最大40TB
・Network:NVIDIA🄬 ConnectX🄬-8
Product page
クラスタ NVIDIA DGX SuperPOD™
With DGX GB200 Systems
NVIDIA DGX SuperPOD With DGX GB200 Systems ・GB200 NVL72×8ラック
・ネットワークスイッチ用ラック
Data Sheet

DGX SuperPOD™ with DGX GB200

NVIDIA DGX GB200 システムをクラスタリングした「DGX SuperPOD™ with DGX GB200」は、兆単位のパラメーター規模の生成 AI モデルのトレーニングと推論向けに設計されています。
1ラックあたり36 個の NVIDIA GB200 Grace Blackwell Superchip を搭載し、36 個の NVIDIA Grace CPU と 72 個の Blackwell GPU が NVIDIA🄬 NVLink🄬 で 相互接続されています。
さらに、各ラック間は NVIDIA Quantum InfiniBandスイッチで接続され、GB200 Superchip をトータル数万基にまで拡張することができます。
効率的な冷却を行うため、水冷式ラックでの運用となります。

DGX SuperPOD™ with DGX GB200
NVIDIA公式サイトの情報を見る

NVIDIA GB300 NVL72

72 基の NVIDIA Blackwell Ultra GPU と 36 基の Arm🄬 ベースの NVIDIA Grace™ CPU を 1 つのプラットフォームに統合した完全液冷式ラック。の Tensor コアは、前世代のNVIDIA Blackwell GPU と比較し、浮動小数点演算性能(FLOPS)が 1.5 倍に強化されています。
Hopperアーキテクチャと比較すると、NVIDIA GB300 NVL72のユーザー応答性(ユーザーあたりのTPS)は10倍に、スループットは5倍に向上しています。これらの進歩により、AIファクトリー全体の生産性を50倍にスケールアップします。

NVIDIA GB300 NVL72
NVIDIA公式サイトの情報を見る

NVIDIA GB200 NVL72

GB200 NVL72 は、第 5 世代 NVIDIA🄬 NVLink🄬インターコネクト技術で、 36基のNVIDIA GB200 Superchip(36 個の Grace CPU + 72 個の Blackwell GPU )を 1 つのラックに統合したエクサスケールコンピューターです。 兆単位のパラメーターを持つLLMのリアルタイム推論性能を、前世代のH100 GPUと比較して30 倍高速化します。
計算処理密度を高めた水冷式ラックとして稼働し、NVIDIA H100 空冷サーバと同じワークロードを実行する場合には、最大25倍の電力効率を発揮。データセンターの二酸化炭素排出量とエネルギー消費を節約し、必要なフロア・ラック面積を削減できます。

NVIDIA GB200 NVL72
NVIDIA公式サイトの情報を見る

NVIDIA DGX GB300

NVIDIA Grace™ Blackwell Ultra Superchipを搭載し、数千台まで拡張可能な DGX GB300 は、NVIDIA MGX™ ラックを使用した最新のデータセンターに適合するように設計されたラックスケールの液冷システムです。前世代のDGX GB200と比較して推論パフォーマンスを 1.5 倍向上します。

NVIDIA DGX GB300
NVIDIA公式サイトの情報を見る

NVIDIA DGX B300

NVIDIA Blackwell Ultra GPU を搭載した DGX B300 は、前世代と比べて推論性能が 11 倍、学習性能が 4 倍向上しており、すべてが最新のデータ センターにシームレスに適合するように設計された新しいフォーム ファクターを備えています。 NVIDIA MGX™ および従来のエンタープライズ ラック、フルスタックソフトウェアと互換性があり、10Uサイズで導入できます。

NVIDIA DGX B300
NVIDIA公式サイトの情報を見る

NVIDIA DGX™ GH200

NVIDIA GH200 Grace Hopper™ Superchipを32 基相互接続した AI スーパーコンピューター。
19.5TBの共有メモリ空間を持ち、128ペタFLOPSのFP8性能を誇るこのマシンは、生成 AI の時代に大きな可能性を切り開きます。NVIDIA🄬NVLink🄬テクノロジ・NVSwitch🄬テクノロジにより、帯域幅は7倍(前モデル比)に増加し、インターコネクトの消費電力は 5 倍以上削減されています。

NVIDIA DGX™ GH200
NVIDIA公式サイトの情報を見る

NVIDIA DGX™ B200

NVIDIA DGX™ B200 は、企業規模を問わず、AI 導入のどの段階においても、パイプラインの開発から導入までを可能にする統合 AI プラットフォームです。
第 5 世代の NVIDIA🄬 NVLink🄬 で相互接続された 8 基の NVIDIA B200 Tensor コア GPU を搭載した DGX B200 は、前世代と比較してトレーニング性能は 3 倍、推論性能は 15 倍の最先端の性能を提供します。
NVIDIA Blackwell GPU アーキテクチャを採用した DGX B200 は、大規模言語モデル、レコメンダー システム、チャットボットなどの多様なワークロードを処理することができ、AI トランスフォーメーションの加速を目指す企業に最適です。

NVIDIA DGX™ B200
NVIDIA公式サイトの情報を見る

NVIDIA GB200 NVL2

2 基のBlackwell GPUと2 基のGrace GPUを搭載し、シングルノードNVIDIA MGX™ アーキテクチャを採用した、省スペースラックマウント型サーバー。さまざまなネットワーキングオプションと接続可能なため、既存のデータ センターへシームレスに導入できます。
生成AI/LLMの学習・推論用基盤や、ベクトルデータベース検索、データ処理に比類のないパフォーマンスを提供します

NVIDIA GB200 NVL2
NVIDIA公式サイトの情報を見る

NVIDIA DGX Station

NVIDIA Grace Blackwell を搭載した究極のデスクトップ AI スーパーコンピューター。NVIDIA Base™ OSがプリインストールされ、NVIDIA🄬 CUDA X-AI™ プラットフォームを利用可能。データ処理、AI、高性能コンピューティング (HPC) など、幅広い分野で NVIDIA 高速化プラットフォームを簡単にデプロイ・拡張できます。

NVIDIA DGX Station
NVIDIA公式サイトの情報を見る

NVIDIA DGX Spark

NVIDIA Grace Blackwellアーキテクチャに基づくシステムオンチップ「GB10 Superchip」を初めて採用したパーソナル AI スーパーコンピューター。標準の電源コンセントで稼働するデスクトップマシンでありながら、FP4 精度で最大 1 PetaFLOPSの AI パフォーマンスを実現します。
大規模な AI モデルのプロトタイピング、ファインチューニング、LLMの推論・実行インフラとして活用可能。さらに、NVIDIA ConnectX🄬 ネットワーキングを使用して、2 台のNVIDIA DGX Sparkをリンクすることで、最大 4,050 億パラメータのモデルを実行できます。

NVIDIA DGX Spark
NVIDIA DGX Sparkの詳細 NVIDIA公式サイトの情報を見る

NVIDIA DGX™ H200

Hopperアーキテクチャを採用した「NVIDIA H200 GPU」を8基搭載するAI/ディープラーニング向けアプライアンス。32PetaFLOPS(FP8の場合)のパフォーマンスを発揮し、前世代と比較して2 倍の速度になったネットワーク、高速のスケーラビリティを利用できるAIエンタープライズインフラストラクチャです。

NVIDIA DGX™ H200
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る