お申込みENTRY
- 最低利用期間は1か月間といたします。
- お申し込みをご希望の場合は、WEBサイトからお問い合わせください。契約条件詳細、および、お申込書様式をご案内します。
- スタンドアロン構成の場合、お申込書受領から最短5営業日で開通いたします。
- お申し込みの際は、プリインストール情報(Ubuntu, CUDA,NVIDIAドライバのバージョン、公開鍵)をお知らせください。
GPU製品 / サービス
生成AI・LLMに適した「NVIDIA H200 GPU」を
低コストで利用できるGPUクラウドサービス
※インスタンス:GPU、CPU、メモリ、ストレージ、OS、ソフトウェアによって構成された仮想サーバー
サービス | GPUクラウド |
---|---|
プラン | HGX H200(スタンドアロン型) |
月額費用(税込)※1 | ¥2,783,000 |
GPU | NVIDIA H200(SXM) x 8枚 |
GPUメモリ | 総計1,128GB |
vCPU | 112コア |
システムメモリ | 2TB |
ストレージ | 30TB |
GPUメモリ帯域幅 | 4.8TB/秒 |
演算性能 (FP16Tensorコア)※2 |
15.8PFLOPS |
リージョン | 日本 |
※1 初期費用はかかりません。
月額費用は1ヶ月(30日間)の積算値です。予約申し込み時の特別価格です。
※2 スパース機能有効時の値です。
LLMの学習・推論を高速化するNVIDIA H200 GPUを8枚搭載したインスタンス(HGX H200)を提供
画像、音声、およびテキストデータを扱うマルチモーダルAIの開発には、並列演算性能の高いNVIDIA H200 GPUがおすすめ
流体解析、ゲノム解析、電磁界解析等のシミュレーションの計算にかかる時間を大幅に削減できます。
POINT
01
HGX H200が低コストで使える
本サービスでは、NVIDIA H200 Tensor Core GPUを8基搭載したHGX H200サーバーを提供します。
オンプレミスでサーバーを導入するには、電源や空調設備、サーバールームなど、大きな設備投資が必要です。本サービスはクラウド型であり、月額料金のみで利用できるため、大規模な設備投資の必要がありません。
POINT
02
LLMに適した高いGPUメモリ
NVIDIA H200 GPUは、前世代のH100に比べて「1.7倍のGPUメモリ」を搭載しているため、膨大なパラメータをもつLLMモデルに対応可能です。
また、LLMで重要視される「GPUメモリ帯域幅」も、H100と比較して1.4倍に向上しています。これによりデータ転送がさらに高速化し、計算速度が向上しています。
POINT
03
すぐに開発をスタートできる
NVIDIAドライバ、CUDA、Docker、Python、PyTorch、Jupyter Labなどの環境をプリインストールして提供が可能です。
DockerHUBやNVIDIA NGC(NVIDIA GPU Cloud)などのリポジトリから取得したDockerイメージからコンテナを簡単に作成できるため、環境構築にかかる時間を大幅に削減します。
POINT
04
必要な分だけ借りられる
本サービスは、スタンドアロン構成とクラスタ構成の2パターンを提供します。
スタンドアロン構成では、NVIDIA HGX H200を1台から、1ヶ月単位でご利用可能です。
クラスタ構成では、お客さまの要件に応じてカスタマイズ可能なプライベートクラウド環境を提供します。
※クラスタ構成の場合の価格、導入方法、納期等は個別にお問い合わせください。
POINT
05
総合的なセキュリティ対策
国内の自社データセンターから提供しているため、国外への情報漏えいのリスクが抑えられます。
SSH接続によって通信を暗号化することで安全に保護しています。物理サーバを専有する形でインスタンスを提供しているため、他のユーザーからの影響を受けません。