料金

AI Platform Prediction には、プロジェクトと予算に合わせて選べるさまざまな料金オプションが用意されています。AI Platform Prediction では、予測ジョブの実行に対して料金が発生します。ただし、クラウド内の機械学習リソースの管理は無料で行えます。

料金の概要

以下の各表は、AI Platform Prediction が利用可能な各リージョンにおける料金をまとめたものです。

AI Platform Training の料金をご覧ください。

予測ジョブの料金

以下の表は、バッチ予測とオンライン予測のノード時間あたりの料金を示しています。ノード時間は、仮想マシンが予測ジョブの実行に費やした時間、または準備状態で予測リクエスト処理の待機に費やした時間を表します。詳細については、予測ジョブの費用の計算をご覧ください。

南北アメリカ

予測
バッチ予測 ノード時間あたり $0.0791205
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.045147

mls1-c4-m2(ベータ版)

$0.151962

n1-standard-2

約 $0.095

n1-standard-4

約 $0.1901

n1-standard-8

約 $0.3802

n1-standard-16

約 $0.7603

n1-standard-32

約 $1.5207

n1-highmem-2

約 $0.1184

n1-highmem-4

約 $0.2367

n1-highmem-8

約 $0.4735

n1-highmem-16

約 $0.947

n1-highmem-32

約 $1.894

n1-highcpu-2

約 $0.0709

n1-highcpu-4

約 $0.1417

n1-highcpu-8

約 $0.2834

n1-highcpu-16

約 $0.5669

n1-highcpu-32

約 $1.1338

ヨーロッパ

予測
バッチ予測 ノード時間あたり $0.086118
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.044095

mls1-c4-m2(ベータ版)

$0.148414

n1-standard-2

約 $0.11

n1-standard-4

約 $0.2201

n1-standard-8

約 $0.4401

n1-standard-16

約 $0.8802

n1-standard-32

約 $1.7605

n1-highmem-2

約 $0.137

n1-highmem-4

約 $0.274

n1-highmem-8

約 $0.548

n1-highmem-16

約 $1.0959

n1-highmem-32

約 $2.1918

n1-highcpu-2

約 $0.0821

n1-highcpu-4

約 $0.1642

n1-highcpu-8

約 $0.3284

n1-highcpu-16

約 $0.6567

n1-highcpu-32

約 $1.3134

アジア太平洋

予測
バッチ予測 ノード時間あたり $0.086118
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.051456

mls1-c4-m2(ベータ版)

$0.17331

n1-standard-2

約 $0.11

n1-standard-4

約 $0.2201

n1-standard-8

約 $0.4401

n1-standard-16

約 $0.8802

n1-standard-32

約 $1.7605

n1-highmem-2

約 $0.137

n1-highmem-4

約 $0.274

n1-highmem-8

約 $0.548

n1-highmem-16

約 $1.0959

n1-highmem-32

約 $2.1918

n1-highcpu-2

約 $0.0821

n1-highcpu-4

約 $0.1642

n1-highcpu-8

約 $0.3284

n1-highcpu-16

約 $0.6567

n1-highcpu-32

約 $1.3134

オンライン予測用の Compute Engine(N1)マシンタイプus-central1europe-west4asia-east1 リージョンでのみ使用可能です。料金は、Google Cloud 請求書で 2 つの別々の SKU として請求されます。

  • vCPU 費用、vCPU 時間で測定
  • RAM 費用、GB 時間で測定

前の表の Compute Engine(N1)マシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32 マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。

前の表の料金は、オンライン予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した Compute Engine(N1)マシンタイプの vCPU と RAM の料金を示しています。

南北アメリカ

Compute Engine(N1)マシンタイプ SKU
vCPU vCPU 時間あたり $0.031613
RAM GB 時間あたり $0.004242

ヨーロッパ

Compute Engine(N1)マシンタイプ SKU
vCPU vCPU 時間あたり $0.036632
RAM GB 時間あたり $0.004902

アジア太平洋

Compute Engine(N1)マシンタイプ SKU
vCPU vCPU 時間あたり $0.036632
RAM GB 時間あたり $0.004902

オプションで、オンライン予測用の GPU アクセラレータと Compute Engine(N1)マシンタイプを組み合わせて使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。

南北アメリカ

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80 $0.4500
NVIDIA_TESLA_P4 $0.6000
NVIDIA_TESLA_P100 $1.4600
NVIDIA_TESLA_T4 $0.3500
NVIDIA_TESLA_V100 $2.4800

ヨーロッパ

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80 利用できません
NVIDIA_TESLA_P4 $0.6500
NVIDIA_TESLA_P100 利用できません
NVIDIA_TESLA_T4 $0.3800
NVIDIA_TESLA_V100 $2.5500

アジア太平洋

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80 $0.4900
NVIDIA_TESLA_P4 利用できません
NVIDIA_TESLA_P100 $1.6000
NVIDIA_TESLA_T4 利用できません
NVIDIA_TESLA_V100 利用できません

料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。

注:

  1. すべてのご利用は AI Platform Prediction の割り当てポリシーの対象となります。
  2. AI Platform Prediction のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。詳しくは、Cloud Storage の使用方法をご覧ください。
  3. ボリューム ベースの割引については、セールスチームにお問い合わせください。
  4. 米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

料金計算ツール

料金計算ツールを使用して、トレーニング ジョブと予測ジョブの費用を見積もることができます。

予測料金の詳細

AI Platform Prediction の予測では、モデルに基づく予測を提供する際に複数の仮想マシン(「ノード」)を実行します。デフォルトでは、AI Platform Prediction により、実行するノードの数が常に自動的にスケールされます。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケール方法はカスタマイズできます。

各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。

  • ノードによるバッチ予測ジョブの処理時間
  • ノードによるオンライン予測リクエストの処理時間
  • ノードがオンライン予測の準備状態になっている時間

1 つのノードを 1 時間実行したときの料金が 1 ノード時間です。予測ジョブの料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。

ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行すると 0.5 ノード時間となります。ただし、料金計算にはいくつかのルールが適用されます。

従来の(MLS1)マシンタイプとバッチ予測の料金計算

  • ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
  • ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。

Compute Engine(N1)マシンタイプの料金計算

  • ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の価格でプロジェクトに対して課金されます。

予測ノードの自動スケーリングの詳細

オンライン予測 バッチ予測
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後、数分間にわたってモデルが待機状態に維持されます。 スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。
スケーリングは毎月の合計料金に影響を与えます。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。

お客様は、トラフィック量に応じてサービスにスケールさせる(自動スケーリング)ことも、レイテンシを回避するために継続実行ノード数を設定する(手動スケーリング)こともできます。

  • 自動スケーリングを選択した場合、ノード数は自動的にスケールされ、トラフィックがない期間はゼロにスケールダウンされます。
  • 手動スケーリングを選択した場合は、常時実行されるノードの数を指定する必要があります。この場合、デプロイから始まりモデル バージョンを削除するまで、ノードが実行されているすべての時間が課金対象になります。
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。

最低使用料金 10 分

前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中は、ノードが使用されません。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後に実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。

または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。

特定の時間に実行されるノードの数を正確に制御するために、手動スケーリングを利用できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。

詳しくは、ノードの割り当てとスケーリングをご覧ください。

予測ジョブの計算の例

南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920427738493961 のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72 秒かかりました。

まず、各ジョブの実行時間を計算します。

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

どのジョブも実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。

($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711
($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725
($0.0791205 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964

1 か月の総額は $0.26 になります。

この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。実際の使用では、必ず複数のノードを考慮に入れ、各ノードの実際の実行時間を計算に使用してください。

AI Platform Prediction での AI Explanations の料金に関する注意事項

AI Explanations を使用しても AI Platform Prediction で追加料金は発生しません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで AI Explanations を多用すると、開始されるノードが増加し、結果として AI Platform Prediction の料金が増加することがあります。

Cloud Storage の利用

このドキュメントに記載されている費用のほかに、AI Platform Prediction のライフサイクル中にはデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象になります。

次の場合は Cloud Storage の利用が必須となります。

  • モデル バージョンをデプロイする準備ができた際に、モデルファイルをステージする。

  • バッチ予測で使用する入力データを保存する。

  • バッチ予測の出力を保存する。AI Platform Prediction の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

リソースを管理するための無料のオペレーション

AI Platform Prediction が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform Prediction 割り当てポリシーにより、オペレーションの一部が制限されます。

リソース 無料のオペレーション
モデル create、get、list、delete
バージョン create、get、list、delete、setDefault
ジョブ get、list、cancel
オペレーション get、list、cancel、delete