トレンドコラム

トレンド

NVIDIA GTC2024 現地参加レポート(セッション・展示ブース編)

2024.04.30

GPUセールス&マーケティング担当 亀谷 淑恵

GPUセールス&マーケティング担当
亀谷 淑恵

基調講演編に引き続き、GTC2024の現地での盛り上がりをお届けします。今回は基調講演以外で私が注目したセッションや、展示ブースの様子をまとめます。
前編:NVIDIA GTC2024 現地参加レポート(基調講演編)

セッション

5日間の会期中、900以上のセッション、ハンズオントレーニング、ディスカッションがありましたが、その中から私が参加して興味深かった2つをご紹介します。

1. Transforming AI

自然言語処理業界に画期的なブレイクスルーをもたらした「Transformer」モデルは、2017年にGoogleが世界で初めて『』という論文内で提案しました。本セッションは、この共同執筆者8名が全員登壇し、NVIDIA CEOの Jensen Huang 氏と語り合うというパネルディスカッションです。基調講演の次に人気のセッションで、開場1時間前から長蛇の列ができていました。人気過ぎて残念ながら私はメイン会場には入室できず、サテライト会場での観覧となりました・・・。

まず、Jensen 氏からの「Transformerモデルの開発にあたり、苦労した点や挑戦したことは?」との質問に対し、登壇者からは「Googleが保有する大量のドキュメントを迅速に読み取るために、当時主流だったRNNでは追い付かなかった。低レイテンシで高精度な解析を行わないといけないという非常に厳しい要件があったので、これを乗り越えるために知恵を絞った」「すでに自然言語処理におけるスケーリング則は知られていたので、トークン数を増やしていっても高速に処理できるよう『Attention機構』を編み出した」「いわば産業革命のようなもの」といったコメントが寄せられました。

また、「”Transformer”という素晴らしい名前は誰が名付けたの?」という質問には「Jakob氏のアイデア。他に貨物を意味する『Cargo net』という案も上がったけど、ほぼすべての機械学習モデルを変換(トランスフォーム)できるということで、よりシンプルなこの名前に決定した」といった裏話も語られました。

Transformerモデルは、GPT-4に代表されるような大規模言語モデルに採用され、私たちの生活を激変させました。にもかかわらず、共同執筆者たちは現状のTransformerに満足していません。「現時点では計算量が多すぎる。無駄な計算が多いため、さらなる効率化が必要」「特定の問題に対して適切な計算量に抑えられるはず」と、Transformerの非効率性を指摘しています。

彼らは挑戦を止めず、すでにTransformerを超える新たな枠組みを模索し始めています。登壇者8名のうち、7名がGoogleを退職し自ら起業しています。セッションの後半では、Jensen 氏から各メンバーへ「みなさんが会社を立ち上げた理由と、事業内容について簡単に説明してもらえますか?」という質問が投げかけられました。

Transformerを超えるモデルを開発し世界を変革するため、さまざまな想いをもって事業を立ち上げたメンバーがいらっしゃいましたが、その中で私が注目したのは、2023年に東京で「Sakana AI」を共同創業したLlion Jones氏です。


Llion Jones氏

「Sakana AI」というユニークな社名(「英語にはない不思議な発音だ」というニュアンスでおっしゃっていました)は、日本語の「魚」から取られています。小魚の群れが集まって大きな魚に見えるように、小さくシンプルなものをたくさん寄せ集めて大きなAIシステムを構築する、自然にインスピレーションを受けたAIを実現したいという想いで命名されました。

2023年に創業された企業ですが、すでにいくつもの研究成果を発表しており、ちょうどこのGTC2024期間中にもLLMに関する新たなリリースが出ることが公表されました。現在、手作業(人間の直感と経験)で行われることが多いオープンソースモデルのマージを、進化的アルゴリズムを用いて自動的に実行する手法です。
詳しくは下記のページをご参照ください。

進化的アルゴリズムによる基盤モデルの構築:https://sakana.ai/evolutionary-model-merge-jp/

Sakana AIが提案するのは、LLMの学習に必要な計算量を非常に少なく抑えつつ、精度を高めるアプローチです。特に、ほかの言語よりも複雑だといわれる日本語に対応し、日本独自の文化やスタイルも反映した自然言語処理技術を開発しています。NTTグループのリリースした「tsuzumi」にも近い考え方ですね。今後の発展に期待しています!

2. DGX User Group Forum

Blackwellアーキテクチャを含む、NVIDIA DGX™ Systemsの最新発表が行われるDGXユーザ向けのカンファレンスです。ディナータイムの開催のため、来場者にはフードやドリンクが提供され、さらに非売品の「DGX」Tシャツももらえるということに心惹かれてエントリーしました。

手始めに、2024年に行われたDGXユーザへのアンケート結果が発表されました。DGXの利用用途や、なぜDGXを選定したか?、次世代のDGXシステムに期待する機能は?といった、さまざまな質問に対するユーザの回答割合が公表されており、個人的にはかなり興味深かったです。
ちなみに、DGX選定理由としては「NVIDIAのサポートが受けられるため」「AIシステムとしてベストな選択肢であるため」「コスト」といった回答が多数を占めていました。

さらに今回のメインとして、基調講演で発表された「DGX SuperPOD with DGX GB200 Systems」の仕様や構成要素、「NVIDIA DGX B200」の性能、「NVIDIA GB200 NVL72」の内部構造などが紹介されました。

DGX Systemsにバンドルされている「NVIDIA AI Enterprise」の注目アップデート”NVIDIA NIM”の詳細もここで開示されました。従来のOSSを活用する場合と比べ、AI推論環境を立ち上げるまでのデプロイ期間が大幅に短縮でき、さまざまな事前学習済みエンジンとAPIで接続できること。もちろん、NVIDIAのエンタープライズサポートが受けられる点も大きなメリットです。

また、NVIDIA GB200 NVL72は水冷システムになることも発表されました。空冷と比べ、高集積で冷却効率の良い水冷ラックシステムは、日本ではまだ対応できるデータセンターが少ない状況です。しかし、「データセンターの大部分は、今後数年間で空冷から空冷と液冷のハイブリッドへの移行を経るでしょう」という予測とともに、NVIDIA GB200 NVL72の内部水冷構造の解説などがなされました。

展示ブース

全ては見て回れませんでしたが、会場内で特に注目を集めていた出展社ブースを4つご紹介します。

1. Supermicro GB200 NVL72

世界で初めて「GB200 NVL72」のラック実機を展示したSupermicroブースには、多くの来場者が詰めかけていました。会期中にはHuang 氏も同ブースに来場し、更なる盛り上がりを見せていました。(余談ですが、Jensen氏と記念撮影をする為にわざわざ革ジャンを着てきた記者がいたり、トイレに行くだけで人だかりができるなど、その人気ぶりにはかなり驚きました)

今後、ぜひGB200の検証機で性能をテストしてみたいと思います!

2. Run:AI

2018年イスラエルで設立された「Run:AI」社も大きなブースを出展していました。

GPUクラスタを導入する際の課題として、マルチテナント・マルチGPUの管理が難しくなるという点が挙げられます。利用者が使いたい時に勝手にアサインするような使い方だと、リソースがサイロ化してしまい、本来利用できるはずの領域を有効に活用できないといったトラブルが起きがちです。

「Run:AI」は、このようなトラブルを回避し、GPUリソースをチーム間で効率的に共有するためのMLOpsプラットフォームです。複数のテナント・GPUをまとめて管理し、細分化されたコンテナを可視化・管理することができます。

さらに、タスクの優先順位を付け、重要なジョブはリソースを先取りしたり、ジョブスケジューリングによって自動的に必要なリソースを割り当てることも可能です。

複数の組織・プロジェクトを横断した大規模チームでGPUクラスタを利用する際、大きな効果を発揮します。Kubernetesのプラグイン(ソフトウェア)として提供されるため、既存のKubernetes環境にアドオンできるのもうれしいポイントです。
今後ますます日本国内でも導入が進むと思われます。

3. NVIDIA AIを活用したカスタマジャーニーのパーソナライズ化

Omniverseのユースケースとして、オリジナルシューズのデザイン・レビューの体験ブースがありました。
シューズのデザインイメージを、Omniverseにテキストプロンプトとして入力すると、プロンプトに合わせたデザインが生成されるというシミュレーションです。
細かい色・デザインの指定をせずとも、LLMが自動的にイメージに沿ったシューズデザインを作ってくれるため、私のようなデザインセンスがない人間でも簡単に素敵なシューズを作ることができます。

「turntable microphone boombox speaker」というプロンプトを入力すると、各要素が配置されたおしゃれなデザインができあがりました(下図参照)。タブレット画面上で360度ビューができるため、もしイメージに合わない場合でも簡単に修正できます。

通常、デザインを修正する場合はデザイナーへのリテイクが必要ですが、Omniverseの活用により、ユーザーエクスペリエンスを向上することができます。他のジャンルにも展開できそうな事例だと感じました。

4. Magic Leap 「Magic Leap2」デバイスの医療分野での活用

VRゴーグル「Magic Leap2」を展開するMagic Leapのブースでは、実際にMagic Leap2を装着し、外科手術のデモ映像を操作することができました。

心臓のカテーテル手術を行う場合、執刀医師は手元のカテーテルの位置と、モニタに映し出される実際の患者の心臓施術部位を見比べる必要があります。VRデバイス(Magic Leap2)を利用することで、Omniverseで作成した施術部位の3Dマップと、カテーテルの位置をリアルタイムで重ね合わせた映像を確認することができるため、より精度の高い手術を実現します。

なお、「Magic Leap 2」は当社でも検証機を購入しました!今後、Omniverseとの連携テストを進める予定です。

所感

間違いなく、これまでに私が参加したビジネスカンファレンスの中で一番盛況なイベントでした! IT事業者だけでなく、報道関係者や投資家など、多くの方がNVIDIAの発表・今後の方針に注目を寄せていました。アメリカだけでなく、ヨーロッパ、アジア(インド、中国etc)など世界各国からはるばる来場された方も多く、現地での交流・情報交換を楽しむこともできました。

また、複数のパートナー企業が合同で登壇しているセミナーも多くありました。どんなに大きな企業であっても、1社単独のサービス・技術だけでイノベーションを実現することはできません。各社の強みを持ち寄り、弱みを補いあうことでさらに大きな変革を行うことができます。当社もInnovation LABを通じて、様々な企業と共創し、サービス連携を強化する必要があると改めて感じました。

DGX User Group Forum で示されたように、次世代のサーバソリューションは水冷式に移行する流れが見えました。各サーバメーカーも水冷式のサーバを準備しています。

しかし現在、日本国内で水冷サーバの運用が可能なロケーションは多くありません。国土の狭い日本ではビル型のデータセンターが主流で、万が一地震等で冷却水が漏れ出すと、下層フロアへの影響も甚大です。水冷サーバの運用方法は今後の大きな課題になりそうです。

 

また、これまではAI開発サイクルのうち、特に「学習」フェーズで高性能なGPUリソースが必要というのが常識でしたが、FP4性能を強化したBlackwellアーキテクチャが発表されるなど、これからはより産業実装に近いAIの「推論」フェーズにも展開していくといったNVIDIAの方向性が示されました。


AIの開発~市場実装までのサイクル

とはいえ、Sakana AIやtsuzumiのように、より軽量なLLMで精度を高めるアプローチを行っているプロジェクトも多くあります。今後、生成AI/LLMはどのくらい私たちの生活を豊かにしてくれるのでしょうか?これからの発展に期待しています!
また、私たちNTTPCもインフラ基盤を提供することで、この技術革新に貢献していきたいと思っています。