トレンドコラム

技術解説

生成AI/LLMの開発を加速するGPUクラスタ
Vol.1【後編】インターコネクトのトポロジーとシステム構成

2024.03.12

NTTPC GPUエンジニア

GPUエンジニア
大野 泰弘

NTTPC サーバーエンジニア

サーバーエンジニア
力石 誠也

NTTPC ネットワークエンジニア

ネットワークエンジニア
古賀 祥治郎

生成AI/LLMの開発を加速するGPUクラスタ Vol.1【後編】インターコネクトのトポロジーとシステム構成

帯域をフルに使えるspine-leaf型ネットワーク

前編では、生成AI/LLM(大規模言語モデル)の開発に関して、次の二点を説明しました。

  • 数百GB以上に及ぶ大規模言語モデル全体がGPUのVRAMに収まるように、マルチノード化によってVRAMの総容量を増やす必要がある
  • 性能を律速する要因のひとつになり得るGPU間のインターコネクトには、RDMA(GPUDirect)がサポートされオーバーヘッドの小さいInfiniBandが最適と考えられる

最初にネットワークトポロジーを取り上げます。マルチノードGPUシステムでは、あるノードとあるノードとの通信が他のノード間通信の帯域を制約しないように、ノンブロッキングの「スパインリーフ(spine-leaf)型ネットワーク」で構成します。

図1に、spine-leafの構成例を示します。


※上図はイメージです。実際には、サーバー・スイッチ間はフルメッシュで構成されます。
  • リーフの1/2の台数をスパインに配置します(この例では4台:2台)
  • リーフスイッチに接続されているノード数の1/2のケーブル数で、リーフとスパインのスイッチを接続します。

このような構成によって、たとえば任意のノードと任意のノードが通信を行っているときに、別のノードと別のノードとが帯域を制限されることなく同時に通信を行うことができます。

マルチノードGPUシステムの構成例

続いて、マルチノードGPUシステムを、ベアボーンサーバーを用いて組む場合と、NVIDIA DGX™ H100で組む場合について説明します。

(1) ベアボーンサーバーを用いる場合

SSuperMicroやDell、HPE、GIGABYTEなどのメーカーがNVIDIA H100 TensorコアGPUに対応したベアボーンサーバーを提供しています。ベアボーンで組むメリットは、性能、予算、設置スペース(ラック搭載高さ)などを考慮して、プロセッサー種別やメモリ容量を含め、さまざまな選択肢の中からカスタマイズが行えることです。

インターコネクトはPCIeスロットにInfiniBand HCA(Host Channel Adapter)を実装して構成します。搭載するGPU個数と同じポート数のInfiniBand HCAを揃えるのが性能的には理想ですので、ベアボーンの選定にあたってはPCIeのスロット数も重要です。

ベアボーン
SuperMicroのベアボーンサーバーの例(AS-8125GS-TNHR/SYS-821GE-TNHR)。大型の8U筐体に最大8個のNVIDIA H100 TensorコアGPUを搭載できます。
SuperMicroの2Uベアボーンサーバーの例(ARS-221GL-NR/SYS-221GE-NH)。最大4個のNVIDIA H100 TensorコアGPUを搭載できます。
GPU
大量のテンソル演算を必要とする大規模言語モデルの開発には、2024年1月時点で最上位GPUとなるNVIDIA H100 TensorコアGPUがお勧めです(2023年11月にさらに上位の「NVIDIA H200 TensorコアGPU」が発表されました)。出荷開始は2024年4月以降になる見通しです)。
前述の8Uのベアボーンサーバー(AS-8125GS-TNHR/SYS-821GE-TNHR)の場合はSXMフォームファクター品、2Uのベアボーンサーバー(ARS-221GL-NR/SYS-221GE-NH)の場合はPCIeデュアルスロットフォームファクタ品を選択します。
InfiniBand HCA
現時点で最高性能のHCAはInfiniBand NDR(400Gbps)をサポートしたConnectX-7 スマート ホスト チャネル アダプターです。
ConnectX-7には、Infiniband NDR(400Gbps)品以外に、InfiniBand HDR(200Gbps)品などが展開されています。InfiniBand NDR対応品のSKUは、900-9X766-003N-SQ0(cryptなし)または900-9X766-003N-SR0(cryptあり)です。
InfiniBandスイッチ
スパインリーフを構成するスイッチにはInfiniBand NDRに対応したNVIDIA Networking Quantum-2 QM9700シリーズを用います。物理的なOSFPコネクタは32個ですが、ひとつのコネクタあたり400Gbps×2ポートが割り当てられていますので、トータルでは64ポートを備えていることになります。
2階層のスパインリーフの場合、前述の構成ルールに従えば、エッジ層のQuantum-2 QM9700の64ポートのうち、半分である32ポートをノード(GPU)の接続に、残り32ポートをコア層のQuantum-2 QM9700との接続に使用します。
ケージ/トランシーバモジュール
ケーブルおよびトランシーバモジュールの調達には若干の注意が必要です。
  • Quantum-2 QM9700スイッチとConnectX-7アダプター間には、1対2のスプリットケーブル(800G-to-two 400G)を使用します
  • Quantum-2 QM9700スイッチとQuantum-2 QM9700スイッチ間は、2本が一組になったツインポート・ケーブル(800G-to-800G)を使用します。
  • Quantum-2 QM9700スイッチ側にはフィン付きモジュールを使用します
  • ConnectX-7アダプタ側にはフィンなしモジュールを使用します
ケーブルには、パッシブDACケーブル(0.5m~2m)のほか、アクティブDACケーブル(1m~2m)、またはDR4シングルモードファイバ(~100m)が使えます。同一ラック内の接続にはもっとも安価なパッシブDACケーブルをお勧めします。

(2) DGX H100を用いる場合

NVIDIA DGX™ H100はNVIDIAが提供するきわめて強力なGPUサーバーで、ハードウェア、インターコネクト、およびソフトウェアともにセットアップされているため、最高クラスの性能が得られるとともにデプロイ期間の短縮が図れます。

ただし、ベアボーンサーバーで組む場合とは異なり、カスタマイズはできません。

本体
NVIDIA DGX™ H100。高さ8U、重量130kg、消費電力最大10.2kWと、きわめて大型のシステムです。
GPU SXMフォームファクターのNVIDIA H100 TensorコアGPUが8個搭載されています。
InfiniBand HCA ソケットダイレクト型のConnectX-7が8個搭載されています。
NVIDIA DGX H100のマザーボードトレイ部分の背面に、400Gbps×2のOSFPコネクタが四つ装備されています。
ベアボーンサーバーで使用するPCIeフォームファクターのConnectX-7 HCAのOSFPコネクタは400Gbps×1ですが、DGX H100のOSFPコネクタは各コネクタあたり400Gbps×2となっているため、後述するように手配すべきケーブルが異なります。
InfiniBandスイッチ
スパインリーフを構成するスイッチにはInfiniBand NDRに対応したNVIDIA Networking Quantum-2 QM9700シリーズを用います。
ケージ/トランシーバモジュール
ケーブルおよびトランシーバモジュールの調達には若干の注意が必要です。
  • DGX H100とQuantum-2 QM9700スイッチ間、およびQuantum-2 QM9700スイッチとQuantum-2 QM9700スイッチ間は、2本が一組になったツインポート・ケーブル(800G-to-800G)を使用します。
  • Quantum-2 QM9700スイッチ側にはフィン付きモジュールを使用します
  • DGX H100側にはフィンなしモジュールを使用します
ケーブルの種類はベアボーンサーバー欄を参照してください。

このようにインターコネクトの構成設計や選定は意外と面倒で、手配でもミスが生じやすいため注意が必要です。もちろんNTTPCでもご相談を承っています。

ノード内インターコネクトである「NVLink」がノード間にも拡張

本稿では触れませんでしたが、ノード内のGPU間のインターコネクトにはNVIDIA独自のNVLinkを使用します。NVIDIA H100 TensorコアGPUに対応した第4世代のNVLinkのデータレートは900GB/sときわめて高速です。なお、NVIDIAは2023年の国際学会「Hotchips」でNVLinkをノード内だけではなくノード間にも拡張するNVLinkとNVSwitchを発表しました。発売時期は発表されていませんが、いずれNVLinkとNVSwitchがノード間インターコネクトの標準になるかもしれません。


ノード内のGPU間を結ぶNVIDIA独自のNVLink(緑色の線)
出典元:NVIDIA DGX H100 System User Guide

外部ストレージとの接続は、専用のネットワークを用意しよう

ストレージシステムの構成やノードとの接続方法もシステム性能に影響を与えます。大規模言語モデルの開発において、外部ストレージは、学習用データセットや言語モデルの保存、トレーニング中の言語モデルのスナップショットの保存、データのノード間での共有などの役割を担います。

ストレージをハードディスク(HDD)で組むかNVMeなどのオールフラッシュ(NVMeなど)で組むかによってコストは大きく異なります。もちろん性能的にはオールフラッシュをお勧めします。その理由は、これまでも述べてきたように、もっとも重要な計算リソースであるGPUの利用率をできるだけ高く維持できるからです。

各ノードとストレージとの接続にはEthernetまたはInfinBandを使います。性能面ではやはりInfiniBandがお勧めですが、インターコネクトのInfinibandとはチャネルを分けて構成する必要があります。

ちなみにNVIDIAは、NVIDIA DGX H100に接続するストレージ製品のベンダーとして、PureStorage、ddn、VAST、NetApp、IBM、WEKAを推奨していますが、これら以外のベンダーの製品でももちろんかまいません。

外部ストレージの選定はややもすると後回しになりがちです。予算の配分を含めて、できるだけ早い段階で検討されることをお勧めします。

インターコネクトのまとめとNTTPCの強み

以上、前編と後編の2回にわたって、生成AI/LLM(大規模言語モデル)の開発に最適なマルチノードGPUシステムとインターコネクトについて紹介しました。繰り返しになりますが、マルチノードGPUシステムでは、GPUというもっとも重要でもっとも貴重なハードウェアリソースをいかに効率的に使うかが鍵になります。

その意味で、GPU間を結ぶインターコネクトにはできるだけオーバーヘッドの小さいテクノロジーを選択することが望ましいためInfiniBandがお勧めです。

NVIDIAのエリートパートナーであるNTTPCは、これまで1,200台以上のGPUサーバーを提供してきた実績を持っていますが、特にここ最近では生成AI/LLMの開発を対象にしたマルチノードGPUシステムが増加している状況です。実績の一部をご紹介します。

また、NTTPCはキャリアとして30年以上のデータセンター運営も行っているため、電源、冷却、ラッキング、保守運用などのノウハウも持っています。特に、マルチノードGPUにおいて「設置環境」は非常に重要な要件となりますので、ラック/電力設計の観点からシステム構成を組める点は、NTTPCが選ばれる大きな理由となっています。

次回はGPUクラスタの運用管理に必要なNVIDIAソフトウエアについて解説します。