GPUサーバーのサムネイル

GPUサーバー

NVIDIAのGPUを利用できるConoHa for AIがリリース

更新日: 2023.11.30公開日: 2023.6.6

NVIDIAのGPU、NVIDIA H100/NVIDIA L4を利用できる仮想サーバー「ConoHa for AI」。その特徴や利用方法、プランを比較します。

編集ノート: SERVERSUSでは、パートナーリンクからコミッションを得ています。コミッションが記事の意見や、サービスの評価に影響を与えることはありません。

ConoHa VPSに「GPUサーバー」が登場しています。

ConoHa for AIとは?

VPSなどの仮想サーバータイプのサービスで、大規模言語モデルや生成系AIのモデルを自ら構築する、もしくはAIを運用するサーバーとして使いたいといった、AIを利用したい企業、個人向けに提供されます。

同社のVPSサービス・ConoHa VPSとの大きな違いはNVIDIAの最新GPU機能を搭載している点ですが、AIに関連する作業をする前提となっていため、CPUやメモリのスペックも、ConoHa VPSとは比較にならないほど高スペックなサーバーとなっています。

似たような国内サービスでは、同じくVPSサーバーなどを手がけるNTTPCの「WebARENA IndigoGPU」があります。

まずは無料トライアルからスタート

ConoHa for AIは、2023年6月の発表時点では、「新機能の動作検証およびフィードバック収集を目的として、開発中サービスを実験的にトライアル版として提供」となっているため、正式なサービスリリースではありません。

利用するには公式ページからトライアルの申し込みをし、ConoHa側での審査を経てサーバーが開放されるという流れになっています。

サービスイン時期については「2023年内の正式版サービス提供を目指す」としています。

ConoHa for AIのプラン

ConoHa for AIには、搭載しているGPUカードの性能で二つのプランが用意されています。

GPUカードNVIDIA L4 Tensor コア GPUNVIDIA H100 Tensor コア GPU
GPUカード搭載数11
GPU搭載メモリ24GB80GB
vCPU20vCPU22vCPU
メモリ128GB228GB
OSUbuntu 22.04LTSUbuntu 22.04LTS
ブロックストレージ1TB1TB
root権限
データセンター日本日本
ピーク単精度演算性能FP3230.3 TFLOPS51 TFLOPS
ピークTensor演算性能FP16Tensor性能242 TFLOPS※1513 TFLOPS※

日本国内のサーバー事業者としては、NVIDIA L4、NVIDIA H100搭載サーバーを提供するのは初で、海外ではGoogle Cloudが同じくNVIDIAとの協業で同等のサーバーをリリースしています。

ただし、トライアル版のサーバースペックとしているため、正式リリース時にはスペック変更される可能性はあります。


価格は記載がある場合を除き、すべて税込みです。

関連キーワード

GPUサーバーの新着記事