GPUサーバー / AIプラットフォーム / Omniverseの構築ならNVIDIA EliteパートナーのNTTPC

NVIDIA ELITE PARTNER

製品ラインナップ製品ラインナップ

Hopperアーキテクチャ

当社はNVIDIA🄬のパートナー認定制度NPN (NVIDIA Partner Network)において、「Compute DGX」コンピテンシで最上位レベルの「Eliteパートナー」に認定されています。

NTTPCコミュニケーションズ NVIDIA ELITE PARTNER
Hopperアーキテクチャ

概要

Ampareモデルの後継となる次世代GPUアーキテクチャ「Hopper」がGTC2022 Keynoteで発表されました。名称はCOBOLの開発者グレース・ホッパーに由来しています。

AI/ディープラーニング計算の要となるTensorコアがFP16→FP8に対応しさらなるメモリ削減・演算性能の向上を実現するなど、AI学習・HPC用途における飛躍的な進化を遂げています。

Hopperアーキテクチャに対応したGPU「NVIDIA H100 Tensor Core GPU」およびこれを8基搭載した「NVIDIA DGX™ H100」も同時にリリースされました。

前モデル(A100)との性能比較

特長

FP8(8ビット浮動小数点演算)

前世代のA100ではFP16(16ビット浮動小数点演算)での処理を行っていましたが、H100では新たにFP8(8ビット浮動小数点演算)を採用することで、4000TFLOPSという非常に高い演算性能を実現しました。これはA100の処理性能の約6倍にのぼります。

また、FP16では2000TFLOPS、TF32で1000TFLOPS、FP64で60TFLOPSとなっており、いずれもA100の3倍のパフォーマンスを誇ります。

TRANSFORMER ENGINE

H100では、FP8 と FP16 の精度を混在させることができます。さらなる高速化・正確性を実現できるAIモデルにはFP8を適用し、それ以外はFP16を利用するといったように、それぞれのワークロードに適したものを使い分けることが可能です。

演算結果の統計情報を基に、GPUが自動的にFP8/FP16を使い分けるため、フレームワーク側が選択する必要はありません。

CONFIDENTIAL COMPUTING

世界で初めて、CPU と H100 GPU の間のデータ転送をPCIe ラインレートで暗号化し、GPUが使用中のデータ・ワークロードの機密性と完全性を守るセキュリティ機能を実装しました。
ホストOSやハイパーバイザーなど、許可しないユーザがデータを覗き見たり、ユーザの意図しない変更が加えられるリスクから保護します。

第2世代MIG(マルチインスタンスGPU)

A100で実装されたマルチインスタンス GPU (MIG) 機能では、1枚のGPUを最大7つのインスタンスに分離することができます。それぞれのインスタンスにメモリ・キャッシュ・GPUコアを割り当てられ、異なるユーザ・用途で利用することが可能です。

H100ではMIG機能をさらに強化。他のインスタンスの影響を受けることなく、よりセキュアにマルチテナント/マルチユーザー構成を利用できます。

DPX命令

動的プログラミングは、複雑な再帰的問題を単純な小問題に分割して計算する手法です。他の手法に比べ、短時間で幾何級数的な難問を解決することができるため、最短な配送ルートの割り出し、病理診断などさまざまな産業で活用されています。

H100では、DPX 命令で動的プログラミングの計算速度をさらに向上します。 CPUと比較すると 40 倍、A100と比べても 7 倍の演算スピードを実現。

技術解説

ホワイトペーパー(英語版)

GTC2022 Keynote

AIチャットボットご利用にあたり

ご利用に当たり、以下の事項をご確認ください。

1.このチャットボット及び見積シュミレーターについて

2.取得する情報の範囲及び利用目的