GPU製品 / サービス

GPUカード

NVIDIA GPU

1993年にグラフィックスカード(GPU)を発明したNVIDIAは、AIテクノロジー、ビジュアルコンピューティングの先駆者として、社会全体に大きな影響を与えつづけています。
ハードウェアのみならず、より効率的に汎用並列計算を行うためのCUDAプログラミング開発環境や、ビジュアリゼーションライブラリの提供、学習用AIモデルの公開も行っています。近年では、NVIDIA AI Enterprise、NVIDIA Omniverse™ Enterpriseをはじめとするソフトウェア・プラットフォーム分野での先進的な開発に注力しており、市場からの注目が集まっています。

NVIDIAテクノロジーは、生産工場のデジタルツインプラットフォームの開発や、AIを搭載した自律型ロボットの商用化、精密な3Dグラフィックス・AR/VR技術、生成AIの開発など、あらゆる産業の変革を実現しています。
NTTPCは、NVIDIAエリートパートナーとして、さまざまな業種でのNVIDIA製品・サービスの導入を支援します。

2025 Best NPN of the Year 受賞

生成AI/LLM開発のためのGPUクラスタ基盤については、当社「トレンドコラム」でも紹介しています。ぜひご覧ください。

生成AI/LLMの開発を加速するGPUクラスタ

AI向けGPUカード 比較表

Blackwellアーキテクチャ Hopperアーキテクチャ Ada Lovelaceアーキテクチャ
GB200 B200 B100 GH200 H200 H100 NVL L40S
メモリ 384GB 192GB 192GB ・HBM3 :96GB
・HBM3e:144GB
141GB 188GB 48GB
メモリ帯域 最大16TB/s 最大8TB/s 最大8TB/s ・HBM3 :4TB/s
・HBM3e:4.9TB/s
4.8TB/s 7.6TB/s 864GB/s
倍精度性能
(FP64)
90TFLOPS 40TFLOPS 30TFLOPS 34TFLOPS 34TFLOPS 68TFLOPS -
単精度性能
(TF32)
5PFLOPS* | 2.5PFLOPS 2.2PFLOPS 1.8PFLOPS 989TFLOPS* | 494 TFLOPS 989 TFLOPS* 1,979 TFLOPS* 91.6TFLOPS
半精度性能
(FP16)
10PFLOPS* | 5PFLOPS 4.5PFLOPS 3.5PFLOPS 1,979TFLOPS* | 990TFLOPS 1,979TFLOPS* 3,958TFLOPS* 366TFLOPS* | 183TFLOPS
FP8性能 20PFLOPS* | 10PFLOPS 9FLOPS 7PFLOPS 3,958TFLOPS* | 1,979 TFLOPS 3,958TFLOPS* 7,916TFLOPS* 1,466TFLOPS* | 733TFLOPS
FP6性能 20PFLOPS* | 10PFLOPS 9FLOPS 7PFLOPS - - - -
FP4性能 40PFLOPS* | 20PFLOPS 18PFLOPS 14PFLOPS - - - -
消費電力 最大2,700W 1,000W 700W 450W~1,000W 最大700W 350-400W x2 350W
主な用途 生成AI/LLM推論 生成AI/LLM推論 生成AI/LLM推論 生成AI/LLM学習・推論/HPC 生成AI/LLM学習・推論/HPC 生成AI/LLM学習・推論/AI・ディープラーニング/HPC AI・ディープラーニング推論/グラフィックス
ベンチマーク Coming Soon! Coming Soon! Coming Soon! HPC Application Performance
詳細仕様 Technical Brief Technical Brief Technical Brief Data Sheet Data Sheet Product Brief Data Sheet

*スパース行列演算機能付き

NVIDIA B100 GPU

NVIDIA Blackwell™アーキテクチャGPU。 1GPUあたりの消費電力は700Wに抑えながら、14ペタLOPS(FP4)の浮動小数点演算性能を実現し、特に生成AI/LLMの推論において高いパフォーマンスを発揮します。
従来の PCIe Gen5 レーンと比較して 7 倍広い最大 900 GB/秒の総帯域幅を実現。NVIDIA NVLink®システムに対応し、第2世代Transformer Engineを搭載し、ワークロードに適した演算方式を自動的に選択可能です。

NVIDIA B100 GPU
NVIDIA公式サイトの情報を見る

NVIDIA B200 GPU

NVIDIA Blackwell™アーキテクチャの上位モデルGPU。2つのBlackwellチップを1ダイに統合し、合計192GBメモリを実現。
18ペタFLOPS(FP4性能)の浮動小数点演算性能を誇り、特に生成AI/LLMの推論において革新的なパフォーマンスを発揮します。
第2世代Transformer Engineを搭載し、ワークロードに適した演算方式を自動的に選択可能です。

NVIDIA B200 GPU
NVIDIA公式サイトの情報を見る

NVIDIA GB200 Grace Blackwell Superchip

NVIDIA Blackwell™アーキテクチャのフラッグシップモデル。NVIDIA® NVLink®-C2Cインターコネクト技術を用いて、2つのBlackwellチップと1つのNVIDIA Grace CPUを1ダイに統合。2つのGPU間の双方向帯域幅は900GB/sで、マルチGPUでも低遅延な処理を実現します。
40ペタFLOPS(FP4性能)の浮動小数点演算性能を誇り、生成AI/LLMの推論において最も革新的なパフォーマンスを発揮します。

NVIDIA GB200 Grace Blackwell Superchip
NVIDIA公式サイトの情報を見る

NVIDIA H200 Tensor Core GPU

HBM3e GPUメモリを初めて搭載したNVIDIA H200 GPUは、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
旧世代のNVIDIA H100 GPUと比べ、LLM推論においては約2倍、x86系CPUと比較した場合、HPC解析では110倍の性能向上を実現します。

NVIDIA H200 Tensor Core GPU
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H200 Tensor Core GPU NVL

2基のH200 GPUをNVLink接続した「H200 NVL」は、はデータ センター内のスペースに制約があるお客様に適した選択肢です。
2または4つのNVIDIA NVLinkブリッジを利用し、900GB/秒 の相互接続性能を誇ります。
前世代と比較してGPUメモリが1.5 倍、帯域幅は1.2 倍に増えたことで、LLMのファインチューニングや推論実行に要する時間を大幅に短縮することができます

NVIDIA H200 Tensor Core GPU NVL
NVIDIA公式サイトの情報を見る

NVIDIA GH200 Grace Hopper Superchip

NVIDIA Hopper™ベースの H100 GPUとArmベースのNVIDIA Grace™ 72コア CPUを、NVIDIA NVLink®-C2C インターコネクトテクノロジを用いて1基のコアに統合したモデル。8ペタFLOPSのAIパフォーマンスを誇り、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
従来の PCIe Gen5 レーンと比較して 7 倍広い最大 900 GB/秒の総帯域幅を実現。NVIDIA NVLink®システムに対応し、複数のGH200を高速・低遅延に接続することが可能です。

NVIDIA GH200 Grace Hopper Superchip
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU

Hopperアーキテクチャを採用したAI/ディープラーニング向けGPU。第4世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。
NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用することで、1基のGPUを最大7つのインスタンスに分割し、それぞれのリソースを複数の用途に活用することができます。

NVIDIA H100 Tensor Core GPU
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU NVL

デュアルGPUの「H100 NVL」は、大規模な言語モデルやジェネレーティブAIの開発用途に特化しています。2つのGPUにそれぞれ94GBのメモリを搭載し、合計188GBのGPUメモリを実現。旧モデルの「NVIDIA A100 GPU」と比較して最大12倍の推論性能を発揮します。

NVIDIA H100 Tensor Core GPU NVL
NVIDIA公式サイトの情報を見る

NVIDIA L40S GPU

NVIDIA L40S GPU は、生成AIやLLM (大規模言語モデル)のトレーニング・推論、3Dグラフィックス、NVIDIA Omniverse®など、マルチワークロードにおいて高いパフォーマンスを発揮します。
NVIDIA DLSS3による超高速レンダリングと滑らかなフレーム レートを実現。NVIDIA Ada Lovelace アーキテクチャと最新のハードウェア イノベーション を活用することで、FPS (フレーム毎秒) を向上させ、レイテンシを大幅に改善します。

NVIDIA L40S GPU
NVIDIA公式サイトの情報を見る

NVIDIA A2 Tensor Core GPU

NVIDIA Ampere アーキテクチャの Tensor コアを搭載し、エッジAI、エントリーレベルの AI 推論やグラフィックス用途など、幅広い用途で性能を発揮します。
シングルスロットかつ低電力で動作できるため、エッジ拠点用サーバへの搭載に適しています。

NVIDIA A2 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA L4 Tensor Core GPU

NVIDIA Ada Lovelace アーキテクチャを搭載した NVIDIA L4 Tensor Core GPU は、AI解析、ビジュアル コンピューティング、グラフィックス、仮想化などの用途で性能を発揮します。
薄型のフォームファクターにパッケージ化された L4 は、エッジからデータ センター、クラウドに至るまで、すべてのサーバーで高スループットと低遅延を実現する、コスト効率に優れたアクセラレータカードです。

NVIDIA L4 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A10 Tensor Core GPU

Ampareベースのアーキテクチャを採用したシングルスロットのコンパクトなGPU。NVIDIA®の仮想GPUソフトウェアと組み合わせることで、グラフィックス機能が充実した仮想デスクトップインフラストラクチャ (VDI) から AI まで、さまざまなワークロードを高速化できます。

NVIDIA A10 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A16 Tensor Core GPU

前世代の M10 に比べ、エンコーダー スループット、格納できるユーザー数が2倍以上に向上。
H.265 エンコード/デコード、VP9、AV1 デコードなど、最新のコーデックに対応し、高解像度のモニターを複数サポート (4K なら 2 台まで、5K なら 1 台)することで、仮想化環境でも最大級の生産性とフォトリアルな品質を実現します。

NVIDIA A16 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA L40

Ada Lovelaceアーキテクチャを採用したNVIDIA L40は、第3世代RTコアと48GBの GDDR6メモリを搭載し、前世代の最大2倍のリアルタイムレイトレーシングパフォーマンスを実現。
デジタルツイン環境の構築、3D デザイン、ビデオ ストリーミングなど、忠実度の高いクリエイティブワークフローを加速します。さらに、ディープラーニングやAI推論にも画期的なパフォーマンスを発揮します。

NVIDIA L40
NVIDIA公式サイトの情報を見る

NVIDIA RTX PRO™ 6000 Blackwell

画期的なNVIDIA Blackwell アーキテクチャを基盤とし、96GBの超高速GDDR7メモリを搭載したデスクトップGPU。マルチインスタンスGPU (MIG) に対応し、最大4つの完全に分離されたインスタンスの作成が可能。パフォーマンスと価値を拡張します。
「Server Edition」と、ツインファンモデルの「Workstation Edition」、300Wモデルの「Max-Q Workstation Edition」の3タイプを提供しています。

NVIDIA RTX PRO™ 6000 Blackwell
NVIDIA公式サイトの情報を見る

NVIDIA RTX PRO™ 5000 Blackwell

NVIDIA Blackwell アーキテクチャをベースに構築され、48GBの超高速GDDR7メモリを搭載したこの製品は、AI開発、LLM推論、生成AIワークフローから、忠実度の高いシミュレーション、ビデオ制作、複雑な3Dモデリングまで、デスクトップでのあらゆる処理を高速化します。

NVIDIA RTX PRO™ 5000 Blackwell
NVIDIA公式サイトの情報を見る

NVIDIA RTX PRO™ 4500 Blackwell

32GBの超高速GDDR7メモリと画期的なBlackwellアーキテクチャを備えた NVIDIA RTX PRO 4500 Blackwellは、AIを活用した体験を加速し、複雑な設計課題に取り組み、ニューラル レンダリングを使用して魅力的なビジュアル コンテンツを作成し、エンジニアリング・データ サイエンスなどにおける新たな可能性を引き出す力を提供します。

NVIDIA RTX PRO™ 4500 Blackwell
NVIDIA公式サイトの情報を見る

NVIDIA RTX PRO™ 4000 Blackwell

NVIDIA Blackwellアーキテクチャを備え、新たに改良されたGDDR7メモリにより帯域幅と容量を大幅に拡張しました。大規模な3Dプロジェクトおよび 生成AIプロジェクトの実行、没入感のあるVR環境の探索、より大規模なマルチ アプリワークフローを推進します。

NVIDIA RTX PRO™ 4000 Blackwell
NVIDIA公式サイトの情報を見る

NVIDIA RTX 6000 Ada

NVIDIA Ada Lovelace GPU アーキテクチャを採用したRTX 6000 Ada は、48GBのグラフィックスメモリを搭載し、大規模なデータセットを用いたシミュレーションやXR/VRワークロードを加速します。
NVIDIA RTX Virtual Workstation (vWS)ソフトウェアをサポートしているため、1台のサーバのリソースを複数人で共有できます。

NVIDIA RTX 6000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 6000 Ada)

NVIDIA RTX 5000 Ada

NVIDIA Ada Lovelace アーキテクチャを採用した NVIDIA RTX™ 5000 Ada GPUは、32GBのグラフィックスメモリ、100 基の第3世代 RT コア、400基の第4世代 Tensorコア、12,800基のCUDA®コアを搭載し、レンダリング・生成AI/LLM推論・グラフィックスのパフォーマンスを大幅に向上。前世代のRTX A5500と比較して最大 2 倍のパフォーマンスを実現します。

NVIDIA RTX 5000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 5000 Ada)

NVIDIA RTX 4500 Ada

24GBグラフィックスメモリを搭載したNVIDIA RTX™ 4500 Ada GPUは、デスクトップPCに対応モデルでありながら、レイトレーシングや物理演算シミュレーションなど、現代の産業における要求の厳しいワークロードに対処できるように設計されています。前世代のRTX A4500と比較して最大 2.7 倍のパフォーマンスを実現します。

NVIDIA RTX 4500 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 4500 Ada)

NVIDIA RTX 4000 Ada

低電力(130W)、省スペース(シングルスロット)でありながら、前世代のRTX A4000と比較して最大 1.7 倍のパフォーマンスを実現したNVIDIA RTX™ 4000 Ada GPUは、複雑な3D製品モデリングや都市設計、VR/ARレンダリングなど、プロフェッショナル用途での性能を新たな高みへと引き上げます。

NVIDIA RTX 4000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 4000 Ada)

NVIDIA RTX 2000 Ada

16GB GDDR6 メモリを搭載したNVIDIA RTX 2000 Ada GPUは、コンパクトなワークステーションを使用する場合でも、CAD/CAEなどのグラフィックス&シミュレーション用途で高い精度を発揮します。
前世代のRTX A2000と比較して最大 1.5 倍のパフォーマンスを実現し、さまざまなシステムで制限なく日常業務を行うことができます。

NVIDIA RTX 2000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 2000 Ada)