GPU製品 / サービス

ネットワーク

nvidia

NVIDIA ConnectXカード、InfiniBandスイッチをはじめとするネットワークソリューションの活用により、大規模なシステムでもさらなる高速化とスケールメリットを実現します。
ハイパフォーマンス コンピューティング (HPC)、機械学習、高度なストレージ、クラスター化されたデータベース、低レイテンシの組み込み I/O アプリケーションなど、あらゆる用途におけるネットワーキング速度を高速化することで、ROI を向上させ、運用単位のコストを削減します。

構成イメージ

img_network_01

GPUサーバ間はInfinibandで接続し、マルチノード構成を実現。
単一ノード内ではNVSwitchによる高速GPU間通信、ノード間ではInfinibandによるGPUダイレクト通信で、大規模なワークロードにも対応可能な演算性能を発揮します。
GPUサーバ~ストレージ間は、ノード間通信とは別領域でInfiniband接続構成とすることで帯域を確保します。

ConnectX ネットワークカード

ConnectX-7 400G Adapters

  • NDR 400Gb/s
  • HDR 200Gb/s
  • EDR 100Gb/s
infiniband-connectx-7
NVIDIA公式サイトの情報を見る

ConnectX-6 DX 200G Adapters

  • 200Gb/s
connectx-6-dx-front-ps
NVIDIA公式サイトの情報を見る

InfiniBand スイッチ

Quantum-2 QM9700 Series

  • 400Gb/s
  • 64 ports
quantum-2-om9700-series
NVIDIA公式サイトの情報を見る

Quantum QM8700 Series

  • 200Gb/s
  • 40 ports
qm8700-Jaguar-managed-hero
NVIDIA公式サイトの情報を見る

Switch-IB 2 SB7800 Series

  • 100Gb/s
  • 36 ports
switch-ib-2-sb7800-series
NVIDIA公式サイトの情報を見る

Switch-IB 2 SB7780/7880 Series

  • 100Gb/s
  • 36 ports
switch-ib-2-sb7780-7880-series
NVIDIA公式サイトの情報を見る

HPE InfiniBand HDR
Managed/Unmanaged スイッチ

  • 200Gb/s
  • 40 ports
hpe-infiniband-hdr-managed-unmanaged-01
HPE公式サイトの情報を見る

HPE InfiniBand NDR
Managed/Unmanaged スイッチ

  • 400Gb/s
  • 64 ports
hpe-infiniband-hdr-managed-unmanaged-02
HPE公式サイトの情報を見る

Ethernet スイッチ

Spectrum SN5600 / SN5400 Switches

  • 800Gb/s(SN5600)
  • 400Gb/s(SN5400)
  • 64 ports
spectrum-4-2000x1260
NVIDIA公式サイトの情報を見る

Spectrum SN4700/SN4410/SN4600/ SN4600C Switches

  • 400Gb/s(SN4700/SN4410)
  • 200Gb/s(SN4600)
  • 100Gb/s(SN4600C)
  • 64 ports(SN4600C/SN4600)
  • 32 ports(SN4700/SN4410)
sn4700-hero
NVIDIA公式サイトの情報を見る

Spectrum SN3700 / SN3700C / SN3420 Switches

  • 200Gb/s(SN3700)
  • 100Gb/s(SN3700C/SN3420)
  • 32 ports(SN3700 / SN3700C)
  • 60 ports(SN3420)
sn3700c-hero
NVIDIA公式サイトの情報を見る

Infinibandケーブル

NVIDIA Mellanox LinkX InfiniBand HDR DAC ケーブル

  • 200Gb/s
  • QSFP56
nvidia-mellanox-linkx-Infiniband-01
NVIDIA公式サイトの情報を見る

NVIDIA Mellanox LinkX InfiniBand AOC ケーブル

  • HDR 200Gb/s
  • EDR 100Gb/s
  • QSFP56
nvidia-mellanox-linkx-infiniband-aoc
NVIDIA公式サイトの情報を見る

Ethernetケーブル

NVIDIA LinkX Ethernet DAC ケーブル

  • 最大400Gb/s
nvidia-linkx-ethernet-dac
NVIDIA公式サイトの情報を見る

NVIDIA Mellanox LinkX Ethernet AOC ケーブル

  • 最大400Gb/s
nvidia-mellanox-linkx-ethernet-aoc
NVIDIA公式サイトの情報を見る

Infiniband vs Ethernet

Infiniband Ethernet 備考
遅延値 非常に低い 低い

InfinibandはEthernetに比べ、パケットのオーバーヘッドが少ないため高速

最大スループット 400Gb/s 400Gb/s

2023年7月時点

最大伝送距離(目安) 数十m 数十km メーカー・型番によって異なる
輻輳 SMによる集中管理のため輻輳しづらい トラフィック集中時に輻輳リスクあり
ネットワークループ 発生しない 接続構成によってループ発生のリスクあり

InfinibandはEthernetに比べ、メッシュ構造が容易に実現可能

バケットルートの管理 SMによる集中管理 各機器で管理
主な用途 ・GPUノード間接続
・GPUサーバ~ストレージ間接続
・ストレージ間接続 など
・インターネット
・10m以上の遠距離接続
・オフィス内LAN配線 など