
NVIDIA H200×8枚挿しサーバーが業界最安級で使える
AIスパコンクラウドはNVIDIA H200を搭載したGPUインスタンスが業界最安級で使えるクラウドサービスです。
LLMなどの生成AIや大規模なシュミレーションの計算時間を短縮します。
大規模なワークロードに対応
H200は、H100に比べて1.7倍のGPUメモリを搭載しているため、膨大なパラメーターをもつLLMモデルに対応可能です。
また、LLMで重要視される「GPUメモリ帯域幅」も、H100と比較して1.4倍に向上しています。
これによりデータ転送がさらに高速化し、計算速度が向上しています。



AIスパコンクラウドの3つのサービス
高速コンピューティング |
月額固定金額で HGX H200ベアメタルサーバーを 1台から利用可能。 |
計算クラスタ ※2025年夏 |
ジョブ単位のポイント制(予定)で HGX H200サーバーを 1枚から枚数を指定して利用可能。 |
【専用】プライベートクラウド |
大規模なワークロード向けにHGX H200を マルチノードクラスタで提供します。 個社向けにさまざまなカスタマイズが可能です。 |

※ 初期費用はかかりません。月額費用は1ヶ月(30日間)の積算値になります。税込価格になります。
※ 為替は2023年の年間平均になります(1USD = 141JPY)
【事例】バイオインフォマティクス
生体高分子(タンパク質、DNA、RNA)などの、動的な構造解析を行う分子動力学(Molecular Dynamics)シミュレーションでは、数万個に1つの原資について、数千回の計算が必要です。
そのためGPUSOROBANの大容量インスタンスを活用することで、シミュレーションを短時間で完了し、研究開発の効率が大幅に向上しました。

【事例】環境シュミレーション
環境予測では、多くの自然環境データを組み合わせた複雑な計算が必要です。
従来の手法に合わせて機械学習を用いることにより、精度の高い予測が可能になってきましたが、その分析には大量の演算処理が必要となります。
GPUSOROBANのH200インスタンスを活用することで、予測精度の向上と処理時間の短縮を実現しています。

上記機種のNVIDIA H200が1/3の価格で利用できる
サービス | GPUSOROBAN AIスパコンクラウド |
A社 | B社 |
プラン | HGX H200スタンドアロン | Aプラン | Bプラン |
月額費用(税込み) | ¥2,783,000 | ¥8,870,400 | ¥10,979,591 |
GPU | NVIDIA H200(SXM) x8枚 | NVIDIA H100(SXM) x8枚 | NVIDIA H100(SXM) x8枚 |
GPUメモリ | 総計 1,128GB | 総計 640GB | 総計 640GB |
vCPU | 112コア | 112コア | 192コア |
システムメモリ | 2TB | 2TB | 2TB |
ストレージ | 30TB | 60TB | 30TB |
演算性能 (FP16 Tensorコア) |
15.8PFLOPS | 15.8PFLOPS | 15.8PFLOPS |
リージョン | 日本 | 米国 | 米国東部 |
※ 初期費用はかかりません。月額費用は1ヶ月(30日間)の積算値になります。税込価格になります。
※ 為替は2023年の年間平均になります(1USD = 141JPY)
※ AIスパコンクラウドの料金は、予約申込時の特別価格になります。