データセンターのグリーン化の動向と
アイルキャッピングの紹介

【技業LOG】技術者が紹介するNTTPCのテクノロジー

2018.02.28
VPS・IaaS

技業LOG

初期のデータセンターでは、ラックあたり2kVAであった電力量が、使用する機器の高機能化、機器内の高集積化等に伴い、3kVA、4kVAと増加し、現在では6kVAが主力となっています。世の中では12kVAや16kVAなどという電力量の要望も出てきているようです。
また、世の中のデータセンター全体の電力使用量を見ても、日本では世の中全体の1%、世界では2%の電力をデータセンターで消費しており、今後も年間8~10%程度の割合で増加していくと予想されています。
次に、データセンター内での電力の消費元に目をやると、①ラック内のIT機器、だけではなく、②空調設備、③UPS・PDUなどの電力設備、④照明などでも消費されています。通常のデータセンターでは、空調設備で使用される電力量も3割~4割程度あり、IT機器で利用される割合は5割強程度どまりというデータセンターも多いと報告されています。
データセンターの省エネルギー、グリーン化は、技術的にも、経営的にも、環境的にも大きな課題であり、近年では、寒冷地にデータセンターを建設し、外気冷房を利用することを売りにするデータセンターも目立ってきているように、さまざまな対応が進められています。

このような環境の中で、省エネ化、電力効率化、グリーン化に係わる評価指標に関する取組みも進められるようになってきました。大手ベンダーが参加し、2007年に設立されたNPOであるGreenGridは、データセンターの指標としてPUE(Power Usage Effectiveness)やDCiE(Data Center Infrastructure Efficiency:PUEの逆数)を定め、国際的に広く普及しています。

  • PUE = データセンター全体の消費電力 / IT機器による消費電力
  • DCiE = 1 / PUE × 100 (単位:%)

日本のグリーンIT推進協議会(現在はグリーンIT推進委員会に引き継がれている)は、データセンターのエネルギー消費を、上記のPUE指標を含め、次の4つで評価するDPPE(Data center Performance Per Energy)という包括的な評価手法を開発し、国際標準化に向けて検討作業を進めてきました。

  • PUE(Power Usage Effectiveness)
  • REF(Renewable Energy Factor:再生可能エネルギー利用率)
  • ITEE(IT Equipment energy Efficiency:IT機器のエネルギー効率)
  • ITEU(IT Equipment Utilization:IT機器の利用率)

そして、本年11月には、次の国際標準が発行されるに至り、日本が大きく貢献をいたしました。

  • ISO/IEC30134-1 Overview and general requirements(英国提案):2016-03発行
  • ISO/IEC30134-2 PUE(米国提案):2016-04発行
  • ISO/IEC30134-3 REF(日本提案):2016-04発行
  • ISO/IEC30134-4 ITEE for server(日本提案):2017-10発行
  • ISO/IEC30134-5 ITEV for server(日本提案):2017-11発行

次に、効率的な空調設備のありかたの一例として、当社の東京第七サーバセンターの一部で、高電力使用ユーザー向けに採用している、アイルキャッピング(アイルキャッピングは、株式会社NTTファシリティーズの登録商標です。)について紹介します。

全体は写真1のようになっています。

写真1:アイルキャッピングの外観
写真1:アイルキャッピングの外観

仕組みについて説明いたしますと、ラック間の通路(アイル)には、コールドアイルとホットアイルの2種類があります。空調機から送り出された冷気は2重床の床下を通り、コールドアイルの床に使われている開口パネルの開口部から吹き出てきます。コールドアイルの床(写真2)を見ると、大きな網目状になっていて、冷気が吹き出しやすくなっていることが分かります。ただし、落し物をしないように注意が必要です。

写真2:コールドアイルの開口パネル
写真2:コールドアイルの開口パネル

この冷気がラック内を吹き抜けることで、搭載されている機器を冷却します。そして暖かくなった空気はラックの反対面からホットアイルに排出され、室内上部を通って空調機に戻るという仕組みです。ラックの扉は、吹き抜けが良いように網目状となっています。また、ホットアイル側の床(写真3)を見ると隙間がなく、空調機からの冷気と直接混じらないように工夫されています。さらに、空きラックやラック内の隙間には、ブランクパネルを搭載することで(写真4)、無駄な冷気の流れを防止するとともに、コールドアイルの上部や入口を囲う(アイルキャッピングする)ことによって、冷気や暖気の回り込みを抑止することで効率化を図っています。

写真3:ホットアイルの床パネル
写真3:ホットアイルの床パネル
写真4:ラック扉とラック内に搭載されているブランクパネル
写真4:ラック扉とラック内に搭載されているブランクパネル

なお、アイルキャッピングしても、きちんと監視ができるよう、特別の監視カメラを設置しています(写真5)。ラックの開閉等に支障を与えないようにしながら、きちんと監視ができるようにすることがポイントです。

写真5:アイルキャップ内の監視カメラ
写真5:アイルキャップ内の監視カメラ

最後に、データセンターが抱える課題はさまざまあり、その1つとして最近ではGPUサーバーの搭載が増加傾向にあります。
高速な演算処理を実施する代わりにかなりの排熱がでます。適切な空調機の吹き出し/吸い込み温度管理、エアフローを考慮しラック内に冷気を送り込まないと高温による機器内部の部品が故障する事象が発生する恐れがあるからです。(エアフローがしっかりできていてもお客さまラック内が各種ケーブルなどで排熱を邪魔していると熱だまりが発生し機器故障につながるため、ラック内の整線・整理は必須になります。)

このように高速処理が進むにつれて機器側も進化し、より多くの排熱が生み出され、いわゆるスパコンになると排熱処理が課題となってきます。
先日外部研修に参加した際に面白い最新技術が紹介されていました。
それは「液浸冷却」と言われるものです。

その講師の紹介では、サーバー機器をそのまま液体に沈め、CPU/GPUから出る熱を常に液体で冷却するというものでした。
使用する冷媒としてフッ素系の液体であるフロリナート、または油を利用するそうです。
また、サーバー側も特殊な加工は必要なく、一部の駆動パーツ(HDDをSSDに変える等)を交換することでほとんどのサーバーメーカーの機器が問題なく稼働するそうです。

これを利用することにより、「空気を冷やす」設備が必要なくなり、その設備の電力が必要なくなり、その設備を置く面積も大幅に削減できて、高電力・高排熱の機器にも対応できるという夢のような技術でした。
参考までにSGI、3M、Intelが共同で最新の液浸型冷却技術を実証している動画がありますのでご紹介します。
https://www.youtube.com/watch?v=tjFPSs9cJ6M

今運用中の既設設備にこのような技術をいきなり同居させることはできませんが、グローバルなニーズに応えられるような対応力と機動力、そして最新技術への高いアンテナを張って弊社のサービスを支えていきます。

おすすめ記事

    お気軽にご相談ください