GPU製品 / サービス

GPUカード

NVIDIA GPU

1993年にグラフィックスカード(GPU)を発明したNVIDIAは、AIテクノロジー、ビジュアルコンピューティングの先駆者として、社会全体に大きな影響を与えつづけています。
ハードウェアのみならず、より効率的に汎用並列計算を行うためのCUDAプログラミング開発環境や、ビジュアリゼーションライブラリの提供、学習用AIモデルの公開も行っています。近年では、NVIDIA AI Enterprise、NVIDIA Omniverse™ Enterpriseをはじめとするソフトウェア・プラットフォーム分野での先進的な開発に注力しており、市場からの注目が集まっています。

現在、生成AI/LLM(大規模言語モデル)/ディープラーニング推論用途に適したGPUと、主にXR/画像生成/3Dグラフィックス/シミュレーションに利用されるGPUの2つのアーキテクチャを展開しています。

NVIDIAテクノロジーは、生産工場のデジタルツインプラットフォームの開発や、AIを搭載した自律型ロボットの商用化、精密な3Dグラフィックス・AR/VR技術、生成AIの開発など、あらゆる産業の変革を実現しています。
NTTPCは、NVIDIAエリートパートナーとして、さまざまな業種でのNVIDIA製品・サービスの導入を支援します。

生成AI/LLM(大規模言語モデル)/
ディープラーニング推論

生成AI/LLM開発のためのGPUクラスタ基盤については、当社「トレンドコラム」でも紹介しています。ぜひご覧ください。

生成AI/LLMの開発を加速するGPUクラスタ

AI向けGPUカード 比較表

Blackwellアーキテクチャ Hopperアーキテクチャ Ada Lovelaceアーキテクチャ
GB200 B200 B100 GH200 H200 H100 NVL L40S
メモリ 384GB 192GB 192GB ・HBM3 :96GB
・HBM3e:144GB
141GB 188GB 48GB
メモリ帯域 最大16TB/s 最大8TB/s 最大8TB/s ・HBM3 :4TB/s
・HBM3e:4.9TB/s
4.8TB/s 7.6TB/s 864GB/s
パフォーマンス
倍精度
(FP64)
90TFLOPS 40TFLOPS 30TFLOPS 34TFLOPS 34TFLOPS 68TFLOPS -
単精度
(TF32)
5PFLOPS* | 2.5PFLOPS 2.2PFLOPS 1.8PFLOPS 989TFLOPS* | 494 TFLOPS 989 TFLOPS* 1,979 TFLOPS* 91.6TFLOPS
半精度
(FP16)
10PFLOPS* | 5PFLOPS 4.5PFLOPS 3.5PFLOPS 1,979TFLOPS* | 990TFLOPS 1,979TFLOPS* 3,958TFLOPS* 366TFLOPS* | 183TFLOPS
FP8 20PFLOPS* | 10PFLOPS 9FLOPS 7PFLOPS 3,958TFLOPS* | 1,979 TFLOPS 3,958TFLOPS* 7,916TFLOPS* 1,466TFLOPS* | 733TFLOPS
FP6 20PFLOPS* | 10PFLOPS 9FLOPS 7PFLOPS - - - -
FP4 40PFLOPS* | 20PFLOPS 18PFLOPS 14PFLOPS - - - -
消費電力 最大2,700W 1,000W 700W 450W~1,000W 最大700W 350-400W x2 350W
主な用途 生成AI/LLM推論 生成AI/LLM推論 生成AI/LLM推論 生成AI/LLM学習・推論/HPC 生成AI/LLM学習・推論/HPC 生成AI/LLM学習・推論/AI・ディープラーニング/HPC AI・ディープラーニング推論/グラフィックス
ベンチマーク Coming Soon! Coming Soon! Coming Soon! HPC Application Performance
詳細仕様 Technical Brief Technical Brief Technical Brief Data Sheet Data Sheet Product Brief Data Sheet

*スパース行列演算機能付き

NVIDIA B100 GPU

NVIDIA Blackwell™アーキテクチャGPU。 1GPUあたりの消費電力は700Wに抑えながら、14ペタLOPS(FP4)の浮動小数点演算性能を実現し、特に生成AI/LLMの推論において高いパフォーマンスを発揮します。
従来の PCIe Gen5 レーンと比較して 7 倍広い最大 900 GB/秒の総帯域幅を実現。NVIDIA NVLink®システムに対応し、第2世代Transformer Engineを搭載し、ワークロードに適した演算方式を自動的に選択可能です。

NVIDIA B100 GPU
NVIDIA公式サイトの情報を見る

NVIDIA B200 GPU

NVIDIA Blackwell™アーキテクチャの上位モデルGPU。2つのBlackwellチップを1ダイに統合し、合計192GBメモリを実現。
18ペタFLOPS(FP4性能)の浮動小数点演算性能を誇り、特に生成AI/LLMの推論において革新的なパフォーマンスを発揮します。
第2世代Transformer Engineを搭載し、ワークロードに適した演算方式を自動的に選択可能です。

NVIDIA B200 GPU
NVIDIA公式サイトの情報を見る

NVIDIA GB200 Grace Blackwell Superchip

NVIDIA Blackwell™アーキテクチャのフラッグシップモデル。NVIDIA® NVLink®-C2Cインターコネクト技術を用いて、2つのBlackwellチップと1つのNVIDIA Grace CPUを1ダイに統合。2つのGPU間の双方向帯域幅は900GB/sで、マルチGPUでも低遅延な処理を実現します。
40ペタFLOPS(FP4性能)の浮動小数点演算性能を誇り、生成AI/LLMの推論において最も革新的なパフォーマンスを発揮します。

NVIDIA GB200 Grace Blackwell Superchip
NVIDIA公式サイトの情報を見る

NVIDIA H200 Tensor Core GPU

HBM3e GPUメモリを初めて搭載したNVIDIA H200 GPUは、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
旧世代のNVIDIA H100 GPUと比べ、LLM推論においては約2倍、x86系CPUと比較した場合、HPC解析では110倍の性能向上を実現します。

NVIDIA H200 Tensor Core GPU
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H200 Tensor Core GPU NVL

2基のH200 GPUをNVLink接続した「H200 NVL」は、はデータ センター内のスペースに制約があるお客様に適した選択肢です。
2または4つのNVIDIA NVLinkブリッジを利用し、900GB/秒 の相互接続性能を誇ります。
前世代と比較してGPUメモリが1.5 倍、帯域幅は1.2 倍に増えたことで、LLMのファインチューニングや推論実行に要する時間を大幅に短縮することができます

NVIDIA H200 Tensor Core GPU NVL
NVIDIA公式サイトの情報を見る

NVIDIA GH200 Grace Hopper Superchip

NVIDIA Hopper™ベースの H100 GPUとArmベースのNVIDIA Grace™ 72コア CPUを、NVIDIA NVLink®-C2C インターコネクトテクノロジを用いて1基のコアに統合したモデル。8ペタFLOPSのAIパフォーマンスを誇り、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
従来の PCIe Gen5 レーンと比較して 7 倍広い最大 900 GB/秒の総帯域幅を実現。NVIDIA NVLink®システムに対応し、複数のGH200を高速・低遅延に接続することが可能です。

NVIDIA GH200 Grace Hopper Superchip
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU

Hopperアーキテクチャを採用したAI/ディープラーニング向けGPU。第4世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。
NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用することで、1基のGPUを最大7つのインスタンスに分割し、それぞれのリソースを複数の用途に活用することができます。

NVIDIA H100 Tensor Core GPU
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU NVL

デュアルGPUの「H100 NVL」は、大規模な言語モデルやジェネレーティブAIの開発用途に特化しています。2つのGPUにそれぞれ94GBのメモリを搭載し、合計188GBのGPUメモリを実現。旧モデルの「NVIDIA A100 GPU」と比較して最大12倍の推論性能を発揮します。

NVIDIA H100 Tensor Core GPU NVL
NVIDIA公式サイトの情報を見る

NVIDIA L40S GPU

NVIDIA L40S GPU は、生成AIやLLM (大規模言語モデル)のトレーニング・推論、3Dグラフィックス、NVIDIA Omniverse®など、マルチワークロードにおいて高いパフォーマンスを発揮します。
NVIDIA DLSS3による超高速レンダリングと滑らかなフレーム レートを実現。NVIDIA Ada Lovelace アーキテクチャと最新のハードウェア イノベーション を活用することで、FPS (フレーム毎秒) を向上させ、レイテンシを大幅に改善します。

NVIDIA L40S GPU
NVIDIA公式サイトの情報を見る

NVIDIA A100 Tensor Core GPU

NVIDIAデータ センタープラットフォームのエンジン A100 は、 第3世代Tensor CoreとTF32精度を利用することで、従来のソースコードに手を加えることなく、NVIDIA V100 GPUと比較して最大 20 倍のAIパフォーマンスを発揮します。
さらに、NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用することで、1基のGPUを最大7つのインスタンスに分割し、それぞれのリソースを複数の用途に活用することができます。

NVIDIA A100 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A100X

NVIDIA A100Xは、NVIDIA A100 Tensor Core GPUと、NVIDIA® BlueField®-2 データ プロセシング ユニット (DPU) を組み合わせたコンバージドアクセラレータです。
NVIDIA A100 GPUのパワフルなパフォーマンスに加え、DPUのセキュリティ強化機能・レイテンシ削減機能に対応。データは GPU と DPU の間の直接パス(一体型 PCIe Gen4 スイッチ)を経由して転送されるため、かつてない高速なGPU演算を実現します。
大規模な多入力/多出力 (MIMO) 機能を備えた 5G、AI-on-5G の導入、信号処理やマルチノード トレーニングなどのセキュリティとハイパフォーマンスが求められるワークロードに適しています。

NVIDIA A100X
NVIDIA公式サイトの情報を見る

NVIDIA A30 Tensor Core GPU

NVIDIA Ampere アーキテクチャの Tensor コアとマルチインスタンス GPU (MIG) で、大規模な AI 推論やハイパフォーマンス コンピューティング (HPC) アプリケーションの高速化を実現します。
PCIe フォーム ファクターに高速のメモリ帯域幅を搭載し、低電力で利用可能な点が強みです。

NVIDIA A30 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A30X

NVIDIA A30Xは、NVIDIA A30 Tensor Core GPUと、NVIDIA® BlueField®-2 データ プロセシング ユニット (DPU) を組み合わせたコンバージドアクセラレータです。
NVIDIA A30 GPUをベースパフォーマンスに、DPUのセキュリティ強化機能・レイテンシ削減機能に対応。データは GPU と DPU の間の直接パス(一体型 PCIe Gen4 スイッチ)を経由して転送されるため、かつてない高速なGPU演算を実現します。
5G vRAN や AI ベースのサイバーセキュリティなど、セキュリティと効率性が求められるワークロードに適しています。

NVIDIA A30X
NVIDIA公式サイトの情報を見る

NVIDIA A2 Tensor Core GPU

NVIDIA Ampere アーキテクチャの Tensor コアを搭載し、エッジAI、エントリーレベルの AI 推論やグラフィックス用途など、幅広い用途で性能を発揮します。
シングルスロットかつ低電力で動作できるため、エッジ拠点用サーバへの搭載に適しています。

NVIDIA A2 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA L4 Tensor Core GPU

NVIDIA Ada Lovelace アーキテクチャを搭載した NVIDIA L4 Tensor Core GPU は、AI解析、ビジュアル コンピューティング、グラフィックス、仮想化などの用途で性能を発揮します。
薄型のフォームファクターにパッケージ化された L4 は、エッジからデータ センター、クラウドに至るまで、すべてのサーバーで高スループットと低遅延を実現する、コスト効率に優れたアクセラレータカードです。

NVIDIA L4 Tensor Core GPU
NVIDIA公式サイトの情報を見る

XR/画像生成/ビジュアライズ

NVIDIA A10 Tensor Core GPU

Ampareベースのアーキテクチャを採用したシングルスロットのコンパクトなGPU。NVIDIA®の仮想GPUソフトウェアと組み合わせることで、グラフィックス機能が充実した仮想デスクトップインフラストラクチャ (VDI) から AI まで、さまざまなワークロードを高速化できます。

NVIDIA A10 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A16 Tensor Core GPU

前世代の M10 に比べ、エンコーダー スループット、格納できるユーザー数が2倍以上に向上。
H.265 エンコード/デコード、VP9、AV1 デコードなど、最新のコーデックに対応し、高解像度のモニターを複数サポート (4K なら 2 台まで、5K なら 1 台)することで、仮想化環境でも最大級の生産性とフォトリアルな品質を実現します。

NVIDIA A16 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A40

NVIDIA A40は、NVIDIA Ampere™ GPUテクノロジーを搭載。2基のGPUをNVIDIA®NVLink®ブリッジで接続することで、最大96GBまでメモリ容量の拡張が可能。
4K映像などのリアルなレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA A40
NVIDIA公式サイトの情報を見る

NVIDIA L40

Ada Lovelaceアーキテクチャを採用したNVIDIA L40は、第3世代RTコアと48GBの GDDR6メモリを搭載し、前世代の最大2倍のリアルタイムレイトレーシングパフォーマンスを実現。
デジタルツイン環境の構築、3D デザイン、ビデオ ストリーミングなど、忠実度の高いクリエイティブワークフローを加速します。さらに、ディープラーニングやAI推論にも画期的なパフォーマンスを発揮します。

NVIDIA L40
NVIDIA公式サイトの情報を見る

NVIDIA RTX 6000 Ada

NVIDIA Ada Lovelace GPU アーキテクチャを採用したRTX 6000 Ada は、48GBのグラフィックスメモリを搭載し、大規模なデータセットを用いたシミュレーションやXR/VRワークロードを加速します。
NVIDIA RTX Virtual Workstation (vWS)ソフトウェアをサポートしているため、1台のサーバのリソースを複数人で共有できます。

NVIDIA RTX 6000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 6000 Ada)

NVIDIA RTX 5000 Ada

NVIDIA Ada Lovelace アーキテクチャを採用した NVIDIA RTX™ 5000 Ada GPUは、32GBのグラフィックスメモリ、100 基の第3世代 RT コア、400基の第4世代 Tensorコア、12,800基のCUDA®コアを搭載し、レンダリング・生成AI/LLM推論・グラフィックスのパフォーマンスを大幅に向上。前世代のRTX A5500と比較して最大 2 倍のパフォーマンスを実現します。

NVIDIA RTX 5000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 5000 Ada)

NVIDIA RTX 4500 Ada

24GBグラフィックスメモリを搭載したNVIDIA RTX™ 4500 Ada GPUは、デスクトップPCに対応モデルでありながら、レイトレーシングや物理演算シミュレーションなど、現代の産業における要求の厳しいワークロードに対処できるように設計されています。前世代のRTX A4500と比較して最大 2.7 倍のパフォーマンスを実現します。

NVIDIA RTX 4500 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 4500 Ada)

NVIDIA RTX 4000 Ada

低電力(130W)、省スペース(シングルスロット)でありながら、前世代のRTX A4000と比較して最大 1.7 倍のパフォーマンスを実現したNVIDIA RTX™ 4000 Ada GPUは、複雑な3D製品モデリングや都市設計、VR/ARレンダリングなど、プロフェッショナル用途での性能を新たな高みへと引き上げます。

NVIDIA RTX 4000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 4000 Ada)

NVIDIA RTX 2000 Ada

16GB GDDR6 メモリを搭載したNVIDIA RTX 2000 Ada GPUは、コンパクトなワークステーションを使用する場合でも、CAD/CAEなどのグラフィックス&シミュレーション用途で高い精度を発揮します。
前世代のRTX A2000と比較して最大 1.5 倍のパフォーマンスを実現し、さまざまなシステムで制限なく日常業務を行うことができます。

NVIDIA RTX 2000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 2000 Ada)

NVIDIA RTX™ A6000

NVIDIA RTX™ A6000は、NVIDIA Ampere™ GPUテクノロジーを搭載。2基のGPUをNVIDIA®NVLink®ブリッジで接続することで、RTX A6000の場合最大96GBまでメモリ容量の拡張が可能。
4K映像などのリアルなレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX A6000
NVIDIA公式サイトの情報を見る(NVIDIA RTX™ A6000)

NVIDIA RTX™ A5500

NVIDIA Ampere アーキテクチャに基づいて構築され、24 GB の GPU メモリを搭載。2基のGPUをNVIDIA®NVLink®ブリッジで接続することで、最大帯域幅112 GB (GB/s) 、合計 48GB の GDDR6 メモリを利用できるようになり、メモリ負荷の高いワークロードにも対応します。
リアルタイムレイトレーシング、ノイズ除去、DLSS のパワーを活用し、見る者を圧倒するフォトリアルなレンダリングに適したモデルです。

NVIDIA RTX™ A5500
NVIDIA公式サイトの情報を見る

NVIDIA RTX™ A4500

NVIDIA RTX™ A4500は、NVIDIA Ampere™ GPUベースの CUDA コアを採用し、多くのメモリを必要とするグラフィックスやコンピューティングのワークロードをさらに高速化します。
第3世代NVIDIA®NVLink™に対応し、複数のGPUを接続することで開発基盤のスケールアップが可能。
VR / ARなどのクリエイティブレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX™ A4500
NVIDIA公式サイトの情報を見る

NVIDIA RTX™ A2000

NVIDIA RTX™ A2000は、NVIDIA Ampere™ GPUベースの CUDA コアを採用しグラフィックスとコンピューティングのワークフローを高速化。前世代と比較して、単精度浮動小数点 (FP32) のパフォーマンスを最大 2 倍にします。
電力効率に優れた薄型のデュアルスロットPCIeフォームファクターを備えており、さまざまなワークステーションに搭載可能。
VR / ARなどのクリエイティブレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX™ A2000
NVIDIA公式サイトの情報を見る