AI Platform Prediction には、プロジェクトと予算に合わせて選べるさまざまな料金オプションが用意されています。AI Platform Prediction では、予測ジョブの実行に対して料金が発生します。ただし、クラウド内の機械学習リソースの管理は無料で行えます。
料金の概要
以下の各表は、AI Platform Prediction が利用可能な各リージョンにおける料金をまとめたものです。
AI Platform Training の料金をご覧ください。
予測ジョブの料金
以下の表は、バッチ予測とオンライン予測のノード時間あたりの料金を示しています。ノード時間は、仮想マシンが予測ジョブの実行に費やした時間、または準備状態で予測リクエスト処理の待機に費やした時間を表します。詳細については、予測ジョブの費用の計算をご覧ください。
南北アメリカ
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
バッチ予測 | ノード時間あたり $0.0791205 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
オンライン予測 |
|
ヨーロッパ
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
バッチ予測 | ノード時間あたり $0.086118 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
オンライン予測 |
|
アジア太平洋
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
バッチ予測 | ノード時間あたり $0.086118 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
オンライン予測 |
|
オンライン予測用の Compute Engine(N1)マシンタイプはリージョン エンドポイントでのみ使用可能です。料金は、Google Cloud 請求書で以下の 2 つの別々の SKU として請求されます。
- vCPU 費用、vCPU 時間で測定
- RAM 費用、GB 時間で測定
前の表の Compute Engine(N1)マシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32
マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。
前の表の料金は、オンライン予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した Compute Engine(N1)マシンタイプの vCPU と RAM の料金を示しています。
南北アメリカ
Compute Engine(N1)マシンタイプ SKU | |||||||
---|---|---|---|---|---|---|---|
vCPU |
|
||||||
RAM |
|
ヨーロッパ
Compute Engine(N1)マシンタイプ SKU | |||||||
---|---|---|---|---|---|---|---|
vCPU |
|
||||||
RAM |
|
アジア太平洋
Compute Engine(N1)マシンタイプ SKU | |||||||||
---|---|---|---|---|---|---|---|---|---|
vCPU |
|
||||||||
RAM |
|
オプションで、オンライン予測用の GPU アクセラレータと Compute Engine(N1)マシンタイプを組み合わせて使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。
南北アメリカ
アクセラレータ - 1 時間あたりの料金 | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
$0.4500 | ||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
$1.4600 | ||||||
NVIDIA_TESLA_T4
|
$0.3500 | ||||||
NVIDIA_TESLA_V100
|
$2.4800 |
ヨーロッパ
アクセラレータ - 1 時間あたりの料金 | |||||
---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
$0.4900 | ||||
NVIDIA_TESLA_P4
|
$0.6500 | ||||
NVIDIA_TESLA_P100
|
$1.6000 | ||||
NVIDIA_TESLA_T4
|
|
||||
NVIDIA_TESLA_V100
|
$2.5500 |
アジア太平洋
アクセラレータ - 1 時間あたりの料金 | |||||
---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
$0.4900 | ||||
NVIDIA_TESLA_P4
|
|
||||
NVIDIA_TESLA_P100
|
$1.6000 | ||||
NVIDIA_TESLA_T4
|
|
||||
NVIDIA_TESLA_V100
|
利用できません |
料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。
注:
- すべてのご利用は AI Platform Prediction の割り当てポリシーの対象となります。
- AI Platform Prediction のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。詳しくは、Cloud Storage の使用方法をご覧ください。
- ボリューム ベースの割引については、セールスチームにお問い合わせください。
- 米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。
料金計算ツール
料金計算ツールを使用して、トレーニング ジョブと予測ジョブの費用を見積もることができます。
予測料金の詳細
AI Platform Prediction の予測では、モデルに基づく予測を提供する際に複数の仮想マシン(「ノード」)を実行します。デフォルトでは、AI Platform Prediction により、実行するノードの数が常に自動的にスケールされます。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケール方法はカスタマイズできます。
各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。
- ノードによるバッチ予測ジョブの処理時間
- ノードによるオンライン予測リクエストの処理時間
- ノードがオンライン予測の準備状態になっている時間
1 つのノードを 1 時間実行したときの料金が 1 ノード時間です。予測ジョブの料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。
ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行すると 0.5 ノード時間となります。ただし、料金計算にはいくつかのルールが適用されます。
従来の(MLS1)マシンタイプとバッチ予測の料金計算
- ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
- ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。
Compute Engine(N1)マシンタイプの料金計算
- ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の価格でプロジェクトに対して課金されます。
予測ノードの自動スケーリングの詳細
オンライン予測 | バッチ予測 |
---|---|
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後、数分間にわたってモデルが待機状態に維持されます。 | スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。 |
スケーリングは毎月の合計料金に影響を与えます。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 | スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。 |
お客様は、トラフィック量に応じてサービスにスケールさせる(自動スケーリング)ことも、レイテンシを回避するために継続実行ノード数を設定する(手動スケーリング)こともできます。
|
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。 |
最低使用料金 10 分
前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中は、ノードが使用されません。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後に実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。
または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。
特定の時間に実行されるノードの数を正確に制御するために、手動スケーリングを利用できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。
詳しくは、ノードの割り当てとスケーリングをご覧ください。
予測ジョブの計算の例
南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920
、4277
、3849
、3961
のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72
秒かかりました。
まず、各ジョブの実行時間を計算します。
3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes 4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes 3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes 3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
どのジョブも実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。
($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964 ($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711 ($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725 ($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
1 か月の総額は $0.26 になります。
この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。実際の使用では、必ず複数のノードを考慮に入れ、各ノードの実際の実行時間を計算に使用してください。
AI Platform Prediction での AI Explanations の料金に関する注意事項
AI Explanations を使用しても AI Platform Prediction で追加料金は発生しません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで AI Explanations を多用すると、開始されるノードが増加し、結果として AI Platform Prediction の料金が増加することがあります。
Cloud Storage の利用
このドキュメントに記載されている費用のほかに、AI Platform Prediction のライフサイクル中にはデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象になります。
次の場合は Cloud Storage の利用が必須となります。
モデル バージョンをデプロイする準備ができた際に、モデルファイルをステージする。
バッチ予測で使用する入力データを保存する。
バッチ予測の出力を保存する。AI Platform Prediction の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。
リソースを管理するための無料のオペレーション
AI Platform Prediction が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform Prediction 割り当てポリシーにより、オペレーションの一部が制限されます。
リソース | 無料のオペレーション |
---|---|
モデル | create、get、list、delete |
バージョン | create、get、list、delete、setDefault |
ジョブ | get、list、cancel |
オペレーション | get、list、cancel、delete |