料金

AI Platform Prediction には、プロジェクトと予算に合わせて選べるさまざまな料金オプションが用意されています。AI Platform Prediction では、予測ジョブの実行に対して料金が発生します。ただし、クラウド内の機械学習リソースの管理は無料で行えます。

料金の概要

以下の各表は、AI Platform Prediction が利用可能な各リージョンにおける料金をまとめたものです。

予測ジョブの料金

以下の表は、バッチ予測とオンライン予測のノード時間あたりの料金を示しています。ノード時間は、仮想マシンが予測ジョブの実行または準備状態で予測リクエスト処理の待機に消費した時間を表します。詳細については、予測ジョブの費用の計算をご覧ください。

南北アメリカ

予測
バッチ予測 ノード時間あたり $0.0791
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.045147

mls1-c4-m2(ベータ版)

$0.151962

n1-standard-2(ベータ版)

約 $0.095

n1-standard-4(ベータ版)

約 $0.19

n1-standard-8(ベータ版)

約 $0.38

n1-standard-16(ベータ版)

約 $0.76

n1-standard-32(ベータ版)

約 $1.52

n1-highmem-2(ベータ版)

約 $0.1183

n1-highmem-4(ベータ版)

約 $0.2366

n1-highmem-8(ベータ版)

約 $0.4732

n1-highmem-16(ベータ版)

約 $0.9464

n1-highmem-32(ベータ版)

約 $1.8928

n1-highcpu-2(ベータ版)

約 $0.0708

n1-highcpu-4(ベータ版)

約 $0.1417

n1-highcpu-8(ベータ版)

約 $0.2834

n1-highcpu-16(ベータ版)

約 $0.5668

n1-highcpu-32(ベータ版)

約 $1.1336

Compute Engine(N1)マシンタイプ(ベータ版)us-central1 リージョンでのみ使用可能です。その料金は Google Cloud 請求書で 2 つの別々の SKU として請求されます。

  • vCPU 費用、vCPU 時間で測定
  • RAM 費用、GB 時間で測定

前の表の Compute Engine(N1)マシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32 マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。

前の表の料金は、オンライン予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した Compute Engine(N1)マシンタイプの vCPU と RAM の料金を示しています。

Compute Engine(N1)マシンタイプ SKU
vCPU vCPU 時間あたり $0.031611
RAM GB 時間あたり $0.004237

オプションで、オンライン予測用の GPU アクセラレータと Compute Engine(N1)マシンタイプを組み合わせて使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80 $0.4500
NVIDIA_TESLA_P4 $0.6000
NVIDIA_TESLA_P100 $1.4600
NVIDIA_TESLA_T4 $0.3500
NVIDIA_TESLA_V100 $2.4800

料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。

ヨーロッパ

予測
バッチ予測 ノード時間あたり $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0441

mls1-c4-m2(ベータ版)

$0.1484

アジア太平洋

予測
バッチ予測 ノード時間あたり $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0515

mls1-c4-m2(ベータ版)

$0.1733

注:

  1. すべてのご利用は AI Platform Prediction の割り当てポリシーの対象となります。
  2. このページで使用される「トレーニング ユニット」は、[ジョブの詳細] ページの [消費した ML ユニット] 項目に表示される値とは異なります。[消費した ML ユニット] では継続時間がすでに考慮されています。詳しくは下記をご覧ください。
  3. AI Platform Prediction のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。詳しくは、Cloud Storage の使用方法をご覧ください。
  4. ボリューム ベースの割引については、セールスチームにお問い合わせください。
  5. 米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

料金計算ツール

料金計算ツールを使用して、トレーニング ジョブと予測ジョブの費用を見積もることができます。

予測料金の詳細

AI Platform Prediction では、モデルに基づく予測を提供する際に複数の仮想マシン(「ノード」)を実行します。デフォルトでは、AI Platform Prediction により、実行するノードの数が常に自動的にスケールされます。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケール方法はカスタマイズできます。

各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。

  • ノードによるバッチ予測ジョブの処理時間
  • ノードによるオンライン予測リクエストの処理時間
  • ノードがオンライン予測の準備状態になっている時間

1 つのノードを 1 時間実行する料金が 1 ノード時間です。予測ジョブの料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。

ノード時間は必ずしも整数として計上されるとは限りません。たとえば、1 つのノードを 30 分間実行すると 0.5 ノード時間となります。ただし、料金計算にはいくつかのルールが適用されます。

従来の(MLS1)マシンタイプとバッチ予測の料金計算

  • ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
  • ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。

Compute Engine(N1)マシンタイプの料金計算

  • ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の料金がプロジェクトに対して課金されます。

予測ノードの自動スケーリングの詳細

オンライン予測 バッチ予測
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後数分間にわたり、モデルが待機状態に維持されます。 スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。
スケーリングは毎月の合計料金に影響します。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。

お客様は、トラフィック量に応じてサービスにスケールさせる(自動スケーリング)ことも、レイテンシを回避するために継続実行ノード数を設定する(手動スケーリング)こともできます。

  • 自動スケーリングを選択した場合、ノード数は自動的にスケールされ、トラフィックがない期間はゼロにスケールダウンされます。
  • 手動スケーリングを選択した場合は、常時実行されるノードの数を指定する必要があります。この場合、デプロイから始まりモデル バージョンを削除するまで、ノードが実行されているすべての時間が課金対象になります。
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。

最低使用料金 10 分

前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中は、ノードが使用されません。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後に実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。

または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分として課金されます。

特定の時間に実行されるノードの数を正確に制御するために、手動スケーリングを利用できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。

詳しくは、ノードの割り当てとスケーリングをご覧ください。

予測ジョブの計算の例

南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920427738493961 のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72 秒かかりました。

まず、各ジョブの実行時間を計算します。

    3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
    4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
    3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
    3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
    

どのジョブも実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。

    ($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328
    ($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.06855
    ($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.06196
    ($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328
    

1 か月の総額は $0.26 になります。

この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。現実の使用では、複数のノードを考慮し、各ノードを実行した実際の時間を計算に使用するようにしてください。

AI Platform Prediction での AI Explanations の料金に関する注意事項

AI Explanations を使用しても AI Platform Prediction で追加料金は発生しません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで AI Explanations を多用すると、開始されるノードが増加し、結果として AI Platform Prediction の料金が増加することがあります。

Cloud Storage の利用が必須になる場合

このドキュメントに記載されている費用のほかに、AI Platform Prediction のライフサイクル中にはデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象になります。

次の場面で Cloud Storage の利用が必須となります。

  • モデル バージョンをデプロイする準備ができた際に、モデルファイルをステージする。

  • バッチ予測で使用する入力データを保存する。

  • バッチ予測の出力を保存する。AI Platform Prediction の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

リソースを管理するための無料のオペレーション

AI Platform Prediction が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform Prediction 割り当てポリシーにより、オペレーションの一部が制限されます。

リソース 無料のオペレーション
モデル create、get、list、delete
バージョン create、get、list、delete、setDefault
ジョブ get、list、cancel
オペレーション get、list、cancel、delete