GPU製品 / サービス

GPUカード

NVIDIA TESLA

1993年にグラフィックスカード(GPU)を発明したNVIDIAは、AIテクノロジー、ビジュアルコンピューティングの先駆者として、社会全体に大きな影響を与えつづけています。
ハードウェアのみならず、より効率的に汎用並列計算を行うためのCUDAプログラミング開発環境や、ビジュアリゼーションライブラリの提供、学習用AIモデルの公開も行っています。近年では、NVIDIA AI Enterprise、NVIDIA Omniverse™ Enterpriseをはじめとするソフトウェア・プラットフォーム分野での先進的な開発に注力しており、市場からの注目が集まっています。

現在、生成AI/LLM(大規模言語モデル)/ディープラーニング推論用途に適したGPUと、主にXR/画像生成/3Dグラフィックス/シミュレーションに利用されるGPUの2つのアーキテクチャを展開しています。

NVIDIAテクノロジーは、生産工場のデジタルツインプラットフォームの開発や、AIを搭載した自律型ロボットの商用化、精密な3Dグラフィックス・AR/VR技術、生成AIの開発など、あらゆる産業の変革を実現しています。
NTTPCは、NVIDIAエリートパートナーとして、さまざまな業種でのNVIDIA製品・サービスの導入を支援します。

生成AI/LLM(大規模言語モデル)/
ディープラーニング推論

NVIDIA H200 Tensor Core GPU

HBM3e GPUメモリを初めて搭載したNVIDIA H200 GPUは、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
旧世代のNVIDIA H100 GPUと比べ、 LLM推論においては約2倍、HPC解析では110倍の性能向上を実現します。

NVIDIA H200 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA GH200 Grace Hopper Superchip

NVIDIA Hopper™ベースの H100 GPUとArmベースのNVIDIA Grace™ 72コア CPUを、NVIDIA NVLink®-C2C インターコネクトテクノロジを用いて1基のコアに統合したモデル。8ペタFLOPSのAIパフォーマンスを誇り、生成AIやLLM (大規模言語モデル)のトレーニングにおいて革新的なパフォーマンスを発揮します。
従来の PCIe Gen5 レーンと比較して 7 倍広い最大 900 GB/秒の総帯域幅を実現。NVIDIA NVLink🄬システムに対応し、複数のGH200を高速・低遅延に接続することが可能です。

NVIDIA GH200 Grace Hopper Superchip
NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU

Hopperアーキテクチャを採用したAI/ディープラーニング向けGPU。第4世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。
NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用することで、1基のGPUを最大7つのインスタンスに分割し、それぞれのリソースを複数の用途に活用することができます。

NVIDIA H100 Tensor Core GPU
Hopperアーキテクチャについて NVIDIA公式サイトの情報を見る

NVIDIA H100 Tensor Core GPU NVL

デュアルGPUの「H100 NVL」は、大規模な言語モデルやジェネレーティブAIの開発用途に特化しています。2つのGPUにそれぞれ94GBのメモリを搭載し、合計188GBのGPUメモリを実現。旧モデルの「NVIDIA A100 GPU」と比較して最大12倍の推論性能を発揮します。

NVIDIA H100 Tensor Core GPU NVL
NVIDIA公式サイトの情報を見る

NVIDIA L40S GPU

NVIDIA L40S GPU は、生成AIやLLM (大規模言語モデル)のトレーニング・推論、3Dグラフィックス、NVIDIA Omniverse🄬など、マルチワークロードにおいて高いパフォーマンスを発揮します。
NVIDIA DLSS3による超高速レンダリングと滑らかなフレーム レートを実現。NVIDIA Ada Lovelace アーキテクチャと最新のハードウェア イノベーション を活用することで、FPS (フレーム毎秒) を向上させ、レイテンシを大幅に改善します。

NVIDIA L40S GPU
NVIDIA公式サイトの情報を見る

NVIDIA A100 Tensor Core GPU

NVIDIAデータ センタープラットフォームのエンジン A100 は、 第3世代Tensor CoreとTF32精度を利用することで、従来のソースコードに手を加えることなく、NVIDIA V100 GPUと比較して最大 20 倍のAIパフォーマンスを発揮します。
さらに、NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用することで、1基のGPUを最大7つのインスタンスに分割し、それぞれのリソースを複数の用途に活用することができます。

NVIDIA A100 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A100X

NVIDIA A100Xは、NVIDIA A100 Tensor Core GPUと、NVIDIA® BlueField®-2 データ プロセシング ユニット (DPU) を組み合わせたコンバージドアクセラレータです。
NVIDIA A100 GPUのパワフルなパフォーマンスに加え、DPUのセキュリティ強化機能・レイテンシ削減機能に対応。データは GPU と DPU の間の直接パス(一体型 PCIe Gen4 スイッチ)を経由して転送されるため、かつてない高速なGPU演算を実現します。
大規模な多入力/多出力 (MIMO) 機能を備えた 5G、AI-on-5G の導入、信号処理やマルチノード トレーニングなどのセキュリティとハイパフォーマンスが求められるワークロードに適しています。

NVIDIA A100X
NVIDIA公式サイトの情報を見る

NVIDIA A30 Tensor Core GPU

NVIDIA Ampere アーキテクチャの Tensor コアとマルチインスタンス GPU (MIG) で、大規模な AI 推論やハイパフォーマンス コンピューティング (HPC) アプリケーションの高速化を実現します。
PCIe フォーム ファクターに高速のメモリ帯域幅を搭載し、低電力で利用可能な点が強みです。

NVIDIA A30 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A30X

NVIDIA A30Xは、NVIDIA A30 Tensor Core GPUと、NVIDIA® BlueField®-2 データ プロセシング ユニット (DPU) を組み合わせたコンバージドアクセラレータです。
NVIDIA A30 GPUをベースパフォーマンスに、DPUのセキュリティ強化機能・レイテンシ削減機能に対応。データは GPU と DPU の間の直接パス(一体型 PCIe Gen4 スイッチ)を経由して転送されるため、かつてない高速なGPU演算を実現します。
5G vRAN や AI ベースのサイバーセキュリティなど、セキュリティと効率性が求められるワークロードに適しています。

NVIDIA A30X
NVIDIA公式サイトの情報を見る

NVIDIA A2 Tensor Core GPU

NVIDIA Ampere アーキテクチャの Tensor コアを搭載し、エッジAI、エントリーレベルの AI 推論やグラフィックス用途など、幅広い用途で性能を発揮します。
シングルスロットかつ低電力で動作できるため、エッジ拠点用サーバへの搭載に適しています。

NVIDIA A2 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA L4 Tensor Core GPU

NVIDIA Ada Lovelace アーキテクチャを搭載した NVIDIA L4 Tensor Core GPU は、AI解析、ビジュアル コンピューティング、グラフィックス、仮想化などの用途で性能を発揮します。
薄型のフォームファクターにパッケージ化された L4 は、エッジからデータ センター、クラウドに至るまで、すべてのサーバーで高スループットと低遅延を実現する、コスト効率に優れたアクセラレータカードです。

NVIDIA L4 Tensor Core GPU
NVIDIA公式サイトの情報を見る

XR/画像生成/ビジュアライズ

NVIDIA A10 Tensor Core GPU

Ampareベースのアーキテクチャを採用したシングルスロットのコンパクトなGPU。NVIDIA🄬の仮想GPUソフトウェアと組み合わせることで、グラフィックス機能が充実した仮想デスクトップインフラストラクチャ (VDI) から AI まで、さまざまなワークロードを高速化できます。

NVIDIA A10 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A16 Tensor Core GPU

前世代の M10 に比べ、エンコーダー スループット、格納できるユーザー数が2倍以上に向上。
H.265 エンコード/デコード、VP9、AV1 デコードなど、最新のコーデックに対応し、高解像度のモニターを複数サポート (4K なら 2 台まで、5K なら 1 台)することで、仮想化環境でも最大級の生産性とフォトリアルな品質を実現します。

NVIDIA A16 Tensor Core GPU
NVIDIA公式サイトの情報を見る

NVIDIA A40

NVIDIA A40は、NVIDIA Ampere™ GPUテクノロジーを搭載。2基のGPUをNVIDIA🄬NVLink🄬ブリッジで接続することで、最大96GBまでメモリ容量の拡張が可能。
4K映像などのリアルなレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA A40
NVIDIA公式サイトの情報を見る

NVIDIA L40

Ada Lovelaceアーキテクチャを採用したNVIDIA L40は、第3世代RTコアと48GBの GDDR6メモリを搭載し、前世代の最大2倍のリアルタイムレイトレーシングパフォーマンスを実現。
デジタルツイン環境の構築、3D デザイン、ビデオ ストリーミングなど、忠実度の高いクリエイティブワークフローを加速します。さらに、ディープラーニングやAI推論にも画期的なパフォーマンスを発揮します。

NVIDIA L40
NVIDIA公式サイトの情報を見る

NVIDIA RTX 6000 Ada

NVIDIA Ada Lovelace GPU アーキテクチャを採用したRTX 6000 Ada は、48GBのグラフィックスメモリを搭載し、大規模なデータセットを用いたシミュレーションやXR/VRワークロードを加速します。
NVIDIA RTX Virtual Workstation (vWS)ソフトウェアをサポートしているため、1台のサーバのリソースを複数人で共有できます。

NVIDIA RTX 6000 Ada
NVIDIA公式サイトの情報を見る(NVIDIA RTX 6000 Ada)

NVIDIA RTX™ A6000

NVIDIA RTX™ A6000は、NVIDIA Ampere™ GPUテクノロジーを搭載。2基のGPUをNVIDIA🄬NVLink🄬ブリッジで接続することで、RTX A6000の場合最大96GBまでメモリ容量の拡張が可能。
4K映像などのリアルなレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX A6000
NVIDIA公式サイトの情報を見る(NVIDIA RTX™ A6000)

NVIDIA RTX™ A5500

NVIDIA Ampere アーキテクチャに基づいて構築され、24 GB の GPU メモリを搭載。2基のGPUをNVIDIA🄬NVLink🄬ブリッジで接続することで、最大帯域幅112 GB (GB/s) 、合計 48GB の GDDR6 メモリを利用できるようになり、メモリ負荷の高いワークロードにも対応します。
リアルタイムレイトレーシング、ノイズ除去、DLSS のパワーを活用し、見る者を圧倒するフォトリアルなレンダリングに適したモデルです。

NVIDIA RTX™ A5500
NVIDIA公式サイトの情報を見る

NVIDIA RTX™ A4500

NVIDIA RTX™ A4500は、NVIDIA Ampere™ GPUベースの CUDA コアを採用し、多くのメモリを必要とするグラフィックスやコンピューティングのワークロードをさらに高速化します。
第3世代NVIDIA🄬NVLink™に対応し、複数のGPUを接続することで開発基盤のスケールアップが可能。
VR / ARなどのクリエイティブレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX™ A4500
NVIDIA公式サイトの情報を見る

NVIDIA RTX™ A2000

NVIDIA RTX™ A2000は、NVIDIA Ampere™ GPUベースの CUDA コアを採用しグラフィックスとコンピューティングのワークフローを高速化。前世代と比較して、単精度浮動小数点 (FP32) のパフォーマンスを最大 2 倍にします。
電力効率に優れた薄型のデュアルスロットPCIeフォームファクターを備えており、さまざまなワークステーションに搭載可能。
VR / ARなどのクリエイティブレンダリング、建築・製品設計のプロトタイピングなど、高負荷なワークロードを大幅にスピードアップします。

NVIDIA RTX™ A2000
NVIDIA公式サイトの情報を見る