GPUサーバー / AIプラットフォーム / Omniverseの構築ならNVIDIA EliteパートナーのNTTPC

NVIDIA ELITE PARTNER

製品ラインナップ製品ラインナップ

NVIDIA DGX Systems

当社はNVIDIA🄬のパートナー認定制度NPN (NVIDIA Partner Network)において、「Compute DGX」コンピテンシで最上位レベルの「Eliteパートナー」に認定されています。

NTTPCコミュニケーションズ NVIDIA ELITE PARTNER
NVIDIA DGX Systems

「NVIDIA DGX™ Systems」は、アプライアンス型のディープラーニング用スーパーコンピューターです。

サーバー構成(ハードウェア)に加えて、ソフトウェアまで統合されているため、GPUプラットフォームの設計/構築に時間をかけることなく、スピーディかつ容易に導入、サービスインすることができます。学習時間を大幅に短縮し、より巨大な学習モデルを処理する画期的な性能により、学術研究分野および産業分野における研究開発を強力に推進することが可能です。

アカデミックおよびスタートアップ企業向けにお求めやすいプランもありますので、まずはご相談ください。

NVIDIA DGX™ Systemsのデータ保存に最適化されたストレージはこちら

NVIDIA DGX™ H100

NVIDIA DGX™ H100

Hopperアーキテクチャを採用した「NVIDIA H100 GPU」を8基搭載するAI/ディープラーニング向けアプライアンス。32PetaFLOPS(FP8の場合)のパフォーマンスを発揮できる世界最高性能のAIエンタープライズインフラストラクチャです。

  • NVIDIA H100 GPU:8基
  • 合計GPUメモリ:640GB
  • GPU間の双方向帯域幅:7.2TB/秒
    (NVIDIA 🄬 NVSwitches™:4基)
  • デュアルCPU
  • NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2
    (ピーク時の双方向ネットワーク帯域幅 1TB/秒)
  • NVMe SSD:最大30TB
  • NVIDIA 🄬 NVSwitch™
NVIDIA公式サイトの情報を見る
Hopperアーキテクチャについて
項目 仕様
GPU NVIDIA H100 Tensor Core GPU(80GB)x 8
GPUメモリ Total:640GB
演算性能 FP8:32PetaFLOPS
CPU Dual x86
メモリ 2TB
ストレージ(For OS) M.2 NVMe SSD 1.92TB x 2
ストレージ(For Data) U.2 NVMe SSD 3.84TB x 8
NVIDIA ® NVSwitch™ 4
ネットワーク OSFP ports serving x4
single-port NVIDIA ConnectX-7 x8
 400Gb/s InfiniBand/Ethernet

dual-port NVIDIA BlueField-3 DPUs VPI x2
 400Gb/s InfiniBand/Ethernet
 200Gb/s InfiniBand/Ethernet
OS/ソフトウェア 【プリインストール】
・DGX OS(Ubuntuベース)
・DGX software stack(DGXに最適化されたドライバ・パッケージを含む)
【オプション】
・Ubuntu or Red Hat Enterprise Linux
・DGX software stack(必要なソフトウェアのみ個別追加可能)
最大消費電力 10.2kW
重量 後日公開
サイズ 後日公開

Omniverse用アプライアンス

NVIDIA OVX

NVIDIA OVX

デジタルツイン環境を実現するプラットフォーム「NVIDIA Omniverse™ Enterprise」のために最適化されたアプライアンス。
「NVIDIA A40 GPU」を8基搭載することで高いレンダリング性能を発揮。また高速ストレージ、低遅延ネットワーキングを組み合わせることで、建物や工場、都市全体、さらには世界をモデル化するための複雑なシミュレーションを可能にします。

  • NVIDIA A40 GPU:8基
  • NVIDIA CONNECTX®-6Dx 200Gbps NIC x3
  • システムメモリ:1TB
NVIDIA公式サイトの情報を見る

NVIDIA DGX Station™ A100

NVIDIA DGX Station™ A100

2.5PFLOPSのAI性能を誇る NVIDIA DGX Station™ A100 は、NVIDIA NVLink® にて相互接続された4基のNVIDIA® A100 Tensor コア GPUと、最大320GBのGPUメモリを搭載したワーキンググループサーバー。オフィスや研究室など、あらゆるロケーションでの利用に適したAIアプライアンスです。

  • NVIDIA A100 GPUを4基搭載
  • 4基のGPUが高速相互接続するNVLinkテクノロジー
  • 64コア AMD CPU搭載
  • 100V電源で動作
項目 仕様
320GBモデル
GPU NVIDIA A100 GPU(80GB)x 4
GPUメモリ Total:320GB
演算性能 AI:2.5PetaFLOPS
INT8精度:5PetaOPS
CPU AMD Rome 7742(64コア)
メモリ 512GB
ストレージ(For OS) M.2 NVMe SSD 1.92TB x 1
ストレージ(For Data) U.2 NVMe SSD 7.68TB x 1
ネットワーク Dual-port 10Gbase-T Ethernet LAN
Single-port 1Gbase-T Ethernet LAN
Ethernet BMC management port
ディスプレイ 4 GB GPU memory, 4x Mini DisplayPort
OS/ソフトウェア Ubuntu Linux OS、NVIDIA GPUドライバ、CUDA Toolkit
最大消費電力 1.5 kW at 100–120 Vac
音圧レベル <37dB
重量 43.1 kg
サイズ 幅256mm×高さ639mm×奥行518mm

NVIDIA DGX™ A100

NVIDIA DGX™ A100

分析からトレーニング、推論に至るまで、あらゆる AI インフラストラクチャのためのユニバーサル システムです。6U のフォームファクタに5PetaFLOPSの AI パフォーマンスを詰め込み、計算処理密度の新しい水準を確立します。

  • NVIDIA A100 GPUを8基搭載
  • GPU間の帯域幅: 600GB/秒
  • 64コア AMD CPUを2基搭載
  • NVIDIA ® NVSwitch™を6基搭載
  • 9 MELLANOX CONNECTX-6 VPI HDR INFINIBAND/200 GB イーサネット
    (ピーク時の双方向の帯域幅: 450 GB/秒)
  • 標準15TB 最大30TBのPCIe Gen4 NVMe SSD
項目 仕様
640GBシステム
GPU NVIDIA A100 GPU(80GB)x 8
GPUメモリ Total:640GB
演算性能 AI:5PetaFLOPS
INT8精度:10PetaOPS
CPU AMD Rome 7742(64コア)x 2
メモリ 2TB
ストレージ(For OS) M.2 NVMe SSD 1.92TB x 2
ストレージ(For Data) U.2 NVMe SSD 3.84TB x 8
NVIDIA ® NVSwitch™ 6
ネットワーク Single-Port Mellanox ConnectX-6 VPI x 8
HDR InfiniBand
Dual-Port Mellanox ConnectX-6 VPI x 2
10 / 25 / 50 / 100 / 200GbE
ディスプレイ -
OS/ソフトウェア Ubuntu Linux OS、NVIDIA GPUドライバ、CUDA Toolkit、NVIDIA Docker、NVIDIA DIGITS、各種DLフレームワーク
最大消費電力 6.5kW
重量 123kg
サイズ 幅最大482.3mm×高さ264.0mm×奥行最大897.1mm

AIチャットボットご利用にあたり

ご利用に当たり、以下の事項をご確認ください。

1.このチャットボット及び見積シュミレーターについて

2.取得する情報の範囲及び利用目的