トレンドコラム

基礎知識

GPUの消費電力の基礎知識:TDP・TGPから電力効率まで、性能とコストの最適バランスとは

2026.04.24

GPUエンジニア

GPUエンジニア

GPUの消費電力の基礎知識:TDP・TGPから電力効率まで、性能とコストの最適バランスとは

生成AIやシミュレーション用途でGPUの導入・増設を検討する際、性能と並んで重要になるのが消費電力です。近年のデータセンター向けGPUは世代を追うごとに電力要求が高まっており、1枚あたり700W級、構成によっては1kW近い電力設定になるケースも見られます。その結果、「GPUを何枚搭載できるか」よりも、「電力と冷却の枠内でどのような構成を組めるか」がGPU選定の大きなポイントになりつつあります。

こうした環境では、GPUの性能スペックだけでなく、TDP(Thermal Design Power:熱設計電力)やTGP(Total Graphics Power)といった電力指標を理解し、電源容量や冷却方式を含めた視点でGPUを選定することが重要になります。
本記事では、GPUの消費電力に関わるスペックの読み方から、電力効率の考え方、導入時に消費電力の観点から確認すべきポイント、主要GPUの消費電力と性能の比較まで整理します。

1. GPUの消費電力とは?GPUの消費電力が与える影響


AIにより作成(プロンプト:データセンターのGPUサーバーラック、発熱と電力のイメージ)

GPUの消費電力とは、GPUが処理を実行する際に必要とする電力量のことで、動作時の電力供給要件や発熱量を左右する重要な指標です。近年のデータセンター向けGPUは、世代が進むにつれて性能が向上すると同時に、消費電力も増加する傾向があります。
そのため、GPUの性能を高めようとすると、消費電力の問題もあわせて考える必要があります。

さらに、GPUの消費電力は電気料金といった運用コストだけでなく、電源容量や冷却能力などインフラ条件にも影響します。このように、GPUの消費電力はシステム全体の運用や設備にも関わるため、その意味や影響を理解しておくことが重要です。

2. GPUの電力関連指標の整理:TDP・ボード電力・システム消費電力

このようにGPUの消費電力は、さまざまな範囲に影響する重要な指標ですが、実際に値を見ると「TDP」、「ボード電力」、「システム消費電力」といった複数の指標が登場します。これらは対象範囲が異なるため、どの指標を指しているのかや消費電力の仕組みを理解することが重要です。以下にそれぞれについて整理します。

2-1. 指標の違い:TDP・ボード電力(TGP/TBP)・システム消費電力

GPUの消費電力として主に次の3つの指標を理解することが大切です。

TDP(Thermal Design Power:熱設計電力)

主に冷却設計のために用いられる指標です。連続運転時に想定される発熱量を示し、その熱を処理できる冷却能力を確保するための目安として使われます。GPUではチップ単体ではなく、ボード全体の上限電力に近い意味で扱われる場合もあり、製品や世代によって前提が異なることがあります。

ボード電力(TGP/TBP)

GPUダイ(GPUの演算チップ)に加え、VRAM(Video RAM:GPU専用メモリ)や電源回路など、GPUボード上のすべての部品を含めた消費電力を指します。NVIDIAではTGP(Total Graphics Power)、AMDではTBP(Total Board Power)と表記されます。GPUカード単体の電力を把握する際に使われる代表的な指標です。

システム消費電力

CPU、メモリ、ストレージ、ファン、PSU(電源ユニット)の変換損失まで含めた、サーバーやワークステーション全体の消費電力を指します。ラックの電源容量や施設の契約電力を考える場合には、この値が基準になります。
これら3つの指標は、対象範囲が「チップ/ボード → システム全体」と段階的に広がっていく関係にあります。たとえばボード電力だけで消費電力を見積もると、CPUやメモリ、ファン、PSUの変換損失*1といったシステム側の電力が含まれず、実際の消費電力との間に差が生じる可能性があります。そのため、GPUの消費電力を議論する際には、どの範囲の電力を指しているのかを区別して理解しておくことが重要でしょう。
*1 変換損失:サーバー内部の部品が使う電力をそのものとは別に、電源変換の過程で失われる電力のこと。システム全体の消費電力を考える際には、この分も含めて見る必要があります。

2-2. 消費電力の仕組み:Power Limitと瞬間ピーク・平均消費電力の関係

GPUのデータシートには最大消費電力が記載されていますが、この値は常にその電力で動作することを意味するものではありません。GPUの消費電力は設定や処理内容によって変化するため、実際の消費電力は状況に応じて変動します。その仕組みを理解するために重要なのが、Power Limit(電力上限)と消費電力の変動という考え方です。

ここからはその詳細について説明します。

Power Limit(電力上限)による制御

GPUの消費電力は、ドライバや管理ツールを用いて上限値を設定することができます。例えば、NVIDIA B200 1枚は仕様上最大1,000Wの電力に対応していますが、DGX™ B200 1台では700Wに制限した設定例が示されています。このようにGPUの消費電力の上限を設定して制御する仕組みは、一般にPower Capping(電力制限)と呼ばれます。

消費電力の変動

GPUの消費電力は常に一定ではなく、処理内容によって変化します。学習ジョブの開始時や演算負荷の高い処理では瞬間的に高い電力に達し、待機状態や軽い処理では消費電力は低下します。このようにGPUの電力は時間とともに変動するため、消費電力を見る際には瞬間的に到達する最大値(瞬間ピーク電力)と、一定時間の運用で平均化された値(平均消費電力)という2つの見方があります。瞬間ピーク電力は短時間に到達する最大値を指し、平均消費電力は一定期間の運用で平均化された電力を指します。

このように同じGPUでもワークロードによって消費電力は変動します。評価する際にはデータシートの最大値だけでなく、実際の運用時にどの程度の電力で動作するのかを見ることが重要になります。

3. GPUの電力効率(Perf/W)の考え方:性能あたり消費電力をどう評価するか


AIにより作成(プロンプト:GPUチップから効率よくエネルギーが放射されるイメージ、少ない電力で大きな光)

データシートの消費電力について理解が進んだところで、実際にGPUを選定する際の電力効率の見方を説明します。GPUを比較する際、消費電力を「何Wか」だけで判断すると、実際の効率を正しく比較できないことがあります。同じ消費電力でも、GPUごとに処理性能が異なるためです。
例えば、あるGPUが600Wで動作し、別のGPUが300Wで動作するとします。一見すると300WのGPUの方が省電力に見えますが、600WのGPUが2倍以上の処理性能を持っていれば、同じ処理をより短時間で実行できます。
このような違いを評価するために用いられるのが、電力効率(Perf/W:Performance per Watt)という考え方です。これは「1ワットあたりどれだけの性能を出せるか」を表す指標です。

3-1. 理論性能(TFLOPS/W)とワークロード性能の評価

GPUの電力効率を評価する際には、大きく2つの見方があります。1つは理論性能を基準にした指標、もう1つは実際のワークロードに基づく指標です。GPUの電力効率を適切に比較するためには、この2つの見方を使い分けて考える必要があります。

理論性能に基づく指標と限界

理論性能ベースの指標としてよく使われるのが TFLOPS/W です。これはGPUの理論演算性能(TFLOPS)*2 を消費電力で割ったもので、理論的に「1ワットあたりどれだけの演算性能を持つか」を示します。ただし、GPUのデータシートでは TFLOPS/Wが直接示されることは多くありません。通常は 「TFLOPS」と「消費電力」 が個別に記載されており、必要に応じて利用者が電力効率を計算します。

また、TFLOPS/Wはあくまで理論性能に基づく指標です。実際の処理では、メモリ帯域、I/O(入出力)、ソフトウェアスタックなどの影響を受けるため、この値だけで実運用の効率を判断することはできません。

*2 TFLOPS(Tera Floating Point Operations Per Second):1秒間に実行できる浮動小数点演算の回数を表す指標で、GPUの理論的な計算能力を示します。例えば、100 TFLOPSのGPUは、1秒間に100兆回の浮動小数点演算を処理できる能力を持つことを意味します。GPUのデータシートでは、FP32・FP16・Tensor Coreなどの演算精度ごとにTFLOPSが示されることが一般的です。この指標が電力効率の「効率」の部分を説明する指標になります。

実務のワークロードに基づく指標

実際の運用では、アプリケーションの実測値に基づく指標で電力効率を評価することが多くなります。

  • LLM推論:tokens/s/W(1ワットあたりの生成トークン数)
  • 学習:ステップ/秒やエポックあたりの処理時間と平均消費電力の組み合わせ
  • 画像生成:images/s/W(1ワットあたりの生成画像数)

例えば、LLM推論で平均消費電力が1kW、生成レートが1,000 tokens/sであれば、電力効率は 1 token/s/W となります。このような指標を用いることで、GPU構成やシステム構成の効率を比較できます。また、平均消費電力と実行時間を掛け合わせることで、ジョブあたりの消費電力量(kWh)を概算することもできます。これに電力単価を掛ければ、電力コストの目安を算出できます。

理論性能やすべてのワークロード性能を測定する必要はありませんが、代表的なジョブを測定しておくと、GPU選定時の判断材料として活用することができるでしょう。

4. 主要GPUの消費電力と性能の比較


AIにより作成(プロンプト:複数のGPUカードが並ぶ、れぞれ異なる大きさと明るさで発光)

ここまで整理してきた消費電力の指標と電力効率の考え方を踏まえて、2026年時点で使用されている主要GPUの消費電力と性能を一覧にまとめます。

実際にGPUを選定する際の判断材料として、消費電力・メモリ容量・理論演算性能をあわせて確認していきましょう。
以下の表では、フォームファクタ、メモリ容量、最大消費電力、理論演算性能を並べて整理し、選定の視点を付記しています*3

GPU フォームファクタ*4 メモリ容量 最大消費電力 理論演算性能FP16
(TFLOPS)*5
選定の視点 数値参考
H100 NVL PCIe 94GB HBM3 350〜400W(設定可能) 1,671 電力制約がある環境での推論向け。空冷対応で導入しやすい構成 製品ページ
H100 SXM SXM 80GB HBM3 最大700W(設定可能) 1,979 学習・推論の両用。高性能構成の基本選択肢 製品ページ
H200 NVL PCIe 141GB HBM3e 最大600W(設定可能) 1,671 H100 NVLと同等の演算性能でメモリが大幅に増加。大規模モデルの推論向け 製品ページ
H200 SXM SXM 141GB HBM3e 最大700W(設定可能) 1,979 LLMの推論でメモリ容量を優先する場合の候補。消費電力はH100 SXMと同等 製品ページ
B200 SXM 180GB HBM3e 最大1,000W(デフォルト700W) 4,500 最高クラスの演算性能。熱設計ハードルが高く、液冷タイプが採用されるケースも増えいている 製品ページ/ユーザーガイド
RTX PRO 6000 Blackwell
Workstation Edition
PCIe 96GB GDDR7 600W FP32: 125*6 オフィス設置の開発・検証向け。96GBのメモリで大規模モデルにも対応 製品ページ
RTX PRO 6000 Blackwell
Server Edition
PCIe(パッシブ) 96GB GDDR7 最大600W(設定可能) FP32: 120*6 ラックマウントサーバー向けのパッシブ冷却モデル。推論やVDI用途での導入に適した構成 製品ページ

*3 本表はNVIDIA公式データシートおよび製品ページから抽出した2026年3月時点の情報です。B200の最大消費電力1,000Wは仕様上の上限値で、DGX B200公式資料ではデフォルト700Wの設定例が示されています。実際の設定可能範囲は導入構成に応じて実機の値を確認してください。
*4 表中のフォームファクタ(GPUの物理的な規格)の列には、PCIeとSXMといった接続方式を示しています。PCIeは一般的な拡張カード型GPUの規格で、サーバーやワークステーションのPCI Expressスロットに装着して使用します。一方、SXMはNVIDIAが開発した高性能GPU向けのモジュール規格で、サーバーの専用ベースボードに取り付けて使用します。
*5 データセンター向けGPU(H100・H200・B200)は、FP16 Tensor Core TFLOPSをスパーシティ(疎行列演算の最適化)有効時の理論値で記載しています。NVIDIA公式製品ページの値です。FP16 Tensor Coreは主にAIの学習・推論で使用される低精度演算の性能指標で、FP32(単精度浮動小数点演算)よりも高いスループットを発揮します。
*6 RTX PRO 6000シリーズは、NVIDIA公式ではFP16 Tensor Coreの性能値が公表されていないため、FP32(単精度浮動小数点演算)の理論演算性能を記載しています。FP16 Tensor Core値を記載しているデータセンター向けGPUとは指標が異なるため、直接の数値比較はできません。

4-1. 消費電力と理論演算性能の関係

H100 SXMとH200 SXMは、どちらも最大700Wで、FP16 Tensor Core(スパース有効時)など特定条件の理論値では近い値が提示される一方、H200は主にメモリ容量・帯域が強化されたモデルとして位置づけられています。そのため、消費電力あたりの理論演算性能は同程度ですが、大容量のメモリを必要とするLLMの推論などでは、H200が有利になります。
大容量のメモリを必要とするLLMの推論などでは、H200が有利になります。
一方、B200は最大1,000Wと消費電力が大きくなりますが、理論演算性能は4,500 TFLOPSとH100 SXMの約2.3倍に達しています。消費電力の増加は約1.4倍であるのに対して性能は約2.3倍になっているため、電力効率の観点では世代が進むほど改善が進んでいることがわかります。

各世代のGPUの性能・メモリ・電力スペックの横断比較は、以下の記事で整理しています。

【関連記事】
データセンターGPU性能比較:指標別に見る製品の選定ポイント

5. GPUの消費電力から考える導入時の確認ポイント

ここまで、GPUの消費電力に関わる指標、電力効率、主要GPUの性能比較を整理してきました。ここでは、これらの知識をもとに、GPUを導入する際に消費電力の観点から確認しておきたいポイントを整理します。

5-1. GPU単体ではなく、システム全体の消費電力で考える

GPUの消費電力を確認する際、まず意識しておきたいのが「どの範囲の消費電力を見るか」という点です。
GPUの製品ページやデータシートに記載されているのは、多くの場合ボード電力(TGP/TBP)です。これはGPUカード単体の消費電力であり、実際のサーバーやワークステーションでは、CPU・メモリ・ストレージ・冷却ファン・PSU(電源ユニット)の変換損失が加わります。
例えば、NVIDIAのDGX B200はデータシート上のシステム消費電力が14.3kWに達します。GPUボード電力だけでなく、CPUやメモリ、冷却系など全体の電力が積み上がった結果です。設置先の電源容量(ラックあたりの許容kWやオフィスの分電盤の回路容量)と照らし合わせる際には、GPUのボード電力ではなくシステム全体の消費電力で見積もることが大切です。
ベンダーの仕様書には最大構成時のシステム消費電力が示されていることが多いため、GPUのスペックだけでなくサーバー全体の仕様書もあわせて確認することをお勧めします。

5-2. 電気代・消費電力を抑えるための考え方

GPUの消費電力は、そのまま電気代(ランニングコスト)に直結します。ここでは、電気代の見積もり方と、消費電力を抑えるための具体的な考え方を整理します。

電気代の見積もり方:最大値ではなく平均消費電力で考える

GPUの電気代を概算する場合、データシートに記載された最大消費電力ではなく、実際の運用時の平均消費電力をもとに計算するのが実用的です。

電気代(月額)≒ 平均消費電力(kW)× 稼働時間(時間/月)× 電力単価(円/kWh)

例えば、平均消費電力500WのGPUを24時間稼働させた場合、電力単価を30円/kWhとすると、GPU1枚あたりの電気代は月額約10,800円になります(0.5kW × 720時間 × 30円)。GPUを4枚搭載したサーバーであれば、GPUだけで月額約43,200円です。さらにCPU・メモリ・冷却ファンなどの消費電力も加わるため、システム全体の電気代はこれより大きくなります。このように、電気代を見積もる際はデータシートの最大消費電力ではなく、ワークロードに応じた平均消費電力で考えることが重要です。

  • 用途に合ったGPU選定で過剰な消費電力を避ける
    消費電力を抑えるうえで基本となるのは、用途に対して過剰なスペックのGPUを避けることです。例えば、推論用途であれば最高性能のGPUでなくても、消費電力の低いモデルで十分な性能が得られる場合があります。また、GPUの搭載枚数を必要最小限にすることも消費電力の抑制に効果的です。前のセクションでまとめた主要GPUの消費電力と性能の比較表も、用途に対して適切なGPUを選ぶ際の参考にしてください。
  • Power Limitによる消費電力の調整
    GPUの消費電力は、Power Limit(電力上限)の設定で抑えることができます。例えばNVIDIA B200は仕様上最大1,000Wに対応していますが、DGX B200のデフォルト設定では700Wとされています。ワークロードによっては、Power Limitを下げても性能への影響が軽微な場合もあるため、消費電力と性能のバランスを実測で確認しながら調整することが有効です。
  • 電源ユニット(PSU)の変換効率にも注目する
    電源ユニットの変換効率が高いほど、同じ構成でも壁側(AC側)の消費電力を抑えやすくなります。GPUの消費電力が大きいシステムほどこの差の影響は大きくなるため、PSUの変換効率もあわせて確認しておくと良いでしょう。

いずれの方法も、調整可能な範囲は製品やシステム構成によって異なるため、ベンダー資料や実機の仕様で確認することが重要です。

5-3. 空冷対応モデルと高発熱GPUの違いを確認する

GPUの消費電力は、冷却方式の選択にも影響します。消費電力が大きいGPUほど発熱量も大きくなるため、空冷で対応できるモデルかどうかが導入時の判断ポイントの1つになります。
おおまかな目安として、消費電力の大きさと冷却方式の関係は次のように整理できます。

  • 消費電力350〜400W程度(H100 NVL等)
    空冷で対応可能な範囲です。一般的なサーバーやワークステーションの冷却設計で運用できます。
  • 消費電力600〜700W程度(H100 SXM、H200 SXM、RTX PRO 6000等)
    空冷でも対応は可能ですが、複数枚を高密度に搭載する構成では発熱が集中しやすくなります。設置環境の冷却能力を事前に確認しておくことが重要です。
  • 消費電力1,000W級(B200等)
    空冷だけでは冷却が難しくなる領域です。直接液冷(GPUやCPUに冷却液を直接循環させる方式)などの導入が選択肢に入ります。例えば、NVIDIAのGB200 NVL72は直接液冷を前提としたラックスケール設計を採用しています。

このように、GPUの消費電力が大きくなるほど冷却方式の選択肢が変わります。選定時には、GPUの消費電力と設置環境の冷却能力を照らし合わせて、空冷で対応できるのか、液冷が必要になるのかを確認しておくことが大切です。

空冷と水冷でGPUの温度や消費電力、処理の安定性がどの程度変わるかは、以下の記事で検証しています。

【関連記事】
水冷GPUサーバーの効果を徹底検証【前編】
水冷GPUサーバーの効果を徹底検証【後編】

水冷・液浸を含むGPUの冷却技術の最新動向や導入イメージは、以下の記事で扱っています。

【関連記事】
Interop Tokyo 2025で見たGPU水冷技術の進化と未来

6. まとめ

本記事では、GPUの消費電力を軸に、電力関連スペックの読み方から電力効率の考え方、導入時に確認すべきポイント、主要GPUの消費電力と性能の比較まで整理しました。
GPUの消費電力は、GPU単体のボード電力だけでなく、システム全体の電力として捉えることが大切です。導入を検討する際には、設置環境の電源容量や冷却能力との適合を確認し、必要に応じてPower Limitによる消費電力の調整や冷却方式の選択も含めて構成を検討することが重要になります。また、消費電力だけでなく電力効率(Perf/W)の視点を持つことで、「消費電力に見合った性能が得られるか」という判断もしやすくなります。

NTTPCでは、GPUの消費電力特性を踏まえ、お客様の設置環境や用途に合わせた構成をご提案しています。「このGPUは自社の環境で運用できるか」「消費電力と性能のバランスはどうか」といったご相談にも対応しておりますので、お気軽にお問い合わせください。
▶︎ お問い合わせはこちら

※「NVIDIA」、「DGX」、「RTX」は、米国およびその他の国におけるNVIDIA Corporationの商標または登録商標です。
※「AMD」は、Advanced Micro Devices, Inc.の商標です。