料金

AI Platform には、プロジェクトと予算に合わせて選べるさまざまな料金オプションが用意されています。AI Platform では、モデルのトレーニング、予測ジョブの実行に対して料金が発生します。ただし、クラウド内の機械学習リソースの管理は無料で行えます。

料金の概要

以下の各表は、AI Platform が利用可能な各リージョンにおけるトレーニング ジョブと予測ジョブの料金をまとめたものです。

トレーニングの料金

以下の各表は、さまざまなトレーニング構成の 1 時間あたりの料金と、各構成で使用されるトレーニング ユニット2 の数を示しています。トレーニング ユニットでは、ジョブのリソースの使用状況が測定されます。マシン構成の 1 時間あたりの料金は、使用されるトレーニング ユニット数にそのリージョンにおけるトレーニング ジョブの費用を掛けたものです。

事前定義されたスケール階層を選択することも、特定のマシンタイプからなるカスタム構成を選択することもできます。カスタム構成を選択する場合は、使用する仮想マシンの費用を合算してください。

アクセラレータを有効にした従来のマシンタイプの料金には、アクセラレータの費用が含まれます。Compute Engine マシンタイプにアクセラレータを接続する場合、アクセラレータの費用は含まれません。費用を計算するには、以下のアクセラレータの表に示す料金に、使用する各タイプのアクセラレータ数を掛けます。

南北アメリカ

AI Platform が利用可能な南北アメリカのすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.49 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.1900 (0.3878)
STANDARD_1 $1.9880 (4.0571)
PREMIUM_1 $16.5536 (33.7829)
BASIC_GPU $0.8300 (1.6939)
BASIC_TPU $4.6900 (9.5714)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使われる仮想マシンの数とタイプを調整できます。マシンタイプについては、表を参照してください。
マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数
n1-standard-4 $0.1900 (0.3878)
n1-standard-8 $0.3800 (0.7755)
n1-standard-16 $0.7600 (1.5510)
n1-standard-32 $1.5200 (3.1020)
n1-standard-64 $3.0400 (6.2041)
n1-standard-96 $4.5600 (9.3061)
n1-highmem-2 $0.1184 (0.2416)
n1-highmem-4 $0.2368 (0.4833)
n1-highmem-8 $0.4736 (0.9665)
n1-highmem-16 $0.9472 (1.9331)
n1-highmem-32 $1.8944 (3.8661)
n1-highmem-64 $3.7888 (7.7322)
n1-highmem-96 $5.6832 (11.5984)
n1-highcpu-16 $0.5672 (1.1576)
n1-highcpu-32 $1.1344 (2.3151)
n1-highcpu-64 $2.2688 (4.6302)
n1-highcpu-96 $3.4020 (6.9429)
cloud_tpu6 $4.5000 (9.1840)、またはなし(アクセラレータを明示的に接続する場合)6
standard $0.1900 (0.3878)
large_model $0.4736 (0.9665)
complex_model_s $0.2836 (0.5788)
complex_model_m $0.5672 (1.1576)
complex_model_l $1.1344 (2.3151)
standard_gpu $0.8300 (1.6939)
complex_model_m_gpu $2.5600 (5.2245)
complex_model_l_gpu $3.3200 (6.7755)
standard_p100 $1.8400 (3.7551)
complex_model_m_p100 $6.6000 (13.4694)
standard_v100 $2.8600 (5.8367)
large_model_v100 $2.9536 (6.0278)
complex_model_m_v100 $10.6800 (21.7959)
complex_model_l_v100 $21.3600 (43.5918)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4500 (0.9184)
NVIDIA_TESLA_P4 $0.6000 (1.2245)
NVIDIA_TESLA_P100 $1.4600 (2.9796)
NVIDIA_TESLA_T4 $0.9500 (1.9388)
NVIDIA_TESLA_V100 $2.4800 (5.0612)
TPU_V2 コア 8 個6 $4.5000 (9.1840)
TPU_V3 コア 8 個6 (ベータ版) $8.0000 (16.3264)

ヨーロッパ

AI Platform が利用可能なヨーロッパのすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.54 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.2200 (0.4074)
STANDARD_1 $2.3020 (4.2630)
PREMIUM_1 $19.1640 (35.4889)
BASIC_GPU $0.9300 (1.7222)
BASIC_TPU (提供なし)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使われる仮想マシンの数とタイプを調整できます。マシンタイプについては、表を参照してください。
マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数
n1-standard-4 $0.2200 (0.4074)
n1-standard-8 $0.4400 (0.8148)
n1-standard-16 $0.8800 (1.6296)
n1-standard-32 $1.7600 (3.2593)
n1-standard-64 $3.5200 (6.5185)
n1-standard-96 $5.2800 (9.7778)
n1-highmem-2 $0.1370 (0.2537)
n1-highmem-4 $0.2740 (0.5074)
n1-highmem-8 $0.5480 (1.0148)
n1-highmem-16 $1.0960 (2.0296)
n1-highmem-32 $2.1920 (4.0593)
n1-highmem-64 $4.3840 (8.1185)
n1-highmem-96 $6.5760 (12.1778)
n1-highcpu-16 $0.6568 (1.2163)
n1-highcpu-32 $1.3136 (2.4326)
n1-highcpu-64 $2.6272 (4.8652)
n1-highcpu-96 $3.9408 (7.2978)
cloud_tpu6 (提供なし)
standard $0.2200 (0.4074)
large_model $0.5480 (1.0148)
complex_model_s $0.3284 (0.6081)
complex_model_m $0.6568 (1.2163)
complex_model_l $1.3136 (2.4326)
standard_gpu $0.9300 (1.7222)
complex_model_m_gpu $2.8400 (5.2593)
complex_model_l_gpu $3.7200 (6.8889)
standard_p100 $2.0400 (3.7778)
complex_model_m_p100 $7.2800 (13.4815)
standard_v100 $2.9684 (5.4970)
large_model_v100 $3.0708 (5.6867)
complex_model_m_v100 $11.0368 (20.4385)
complex_model_l_v100 $22.0736 (40.8770)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4900 (0.9074)
NVIDIA_TESLA_P4 $0.6500 (1.2037)
NVIDIA_TESLA_P100 $1.6000 (2.9630)
NVIDIA_TESLA_T4 $1.0300 (1.9074)
NVIDIA_TESLA_V100 $2.5500 (4.7222)
TPU_V2 コア 8 個6 (提供なし)
TPU_V3 コア 8 個6 (ベータ版) (提供なし)

アジア太平洋

AI Platform が利用可能なアジア太平洋のすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.54 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.2200 (0.4074)
STANDARD_1 $2.3020 (4.2630)
PREMIUM_1 $19.1640 (35.4889)
BASIC_GPU $0.9300 (1.7222)
BASIC_TPU (提供なし)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使われる仮想マシンの数とタイプを調整できます。マシンタイプについては、表を参照してください。
マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数
n1-standard-4 $0.2200 (0.4074)
n1-standard-8 $0.4400 (0.8148)
n1-standard-16 $0.8800 (1.6296)
n1-standard-32 $1.7600 (3.2593)
n1-standard-64 $3.5200 (6.5185)
n1-standard-96 $5.2800 (9.7778)
n1-highmem-2 $0.1370 (0.2537)
n1-highmem-4 $0.2740 (0.5074)
n1-highmem-8 $0.5480 (1.0148)
n1-highmem-16 $1.0960 (2.0296)
n1-highmem-32 $2.1920 (4.0593)
n1-highmem-64 $4.3840 (8.1185)
n1-highmem-96 $6.5760 (12.1778)
n1-highcpu-16 $0.6568 (1.2163)
n1-highcpu-32 $1.3136 (2.4326)
n1-highcpu-64 $2.6272 (4.8652)
n1-highcpu-96 $3.9408 (7.2978)
cloud_tpu6 (提供なし)
standard $0.2200 (0.4074)
large_model $0.5480 (1.0148)
complex_model_s $0.3284 (0.6081)
complex_model_m $0.6568 (1.2163)
complex_model_l $1.3136 (2.4326)
standard_gpu $0.9300 (1.7222)
complex_model_m_gpu $2.8400 (5.2593)
complex_model_l_gpu $3.7200 (6.8889)
standard_p100 $2.0400 (3.7778)
complex_model_m_p100 $7.2800 (13.4815)
standard_v100 $2.9684 (5.4970)
large_model_v100 $3.0708 (5.6867)
complex_model_m_v100 $11.0368 (20.4385)
complex_model_l_v100 $22.0736 (40.8770)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4900 (0.9074)
NVIDIA_TESLA_P4 $0.6500 (1.2037)
NVIDIA_TESLA_P100 $1.6000 (2.9630)
NVIDIA_TESLA_T4 $1.0300 (1.9074)
NVIDIA_TESLA_V100 $2.5500 (4.7222)
TPU_V2 コア 8 個6 (提供なし)
TPU_V3 コア 8 個6 (ベータ版) (提供なし)

予測ジョブの料金

以下の表は、バッチ予測とオンライン予測のノード時間あたりの料金を示しています。ノード時間は、仮想マシンが予測ジョブの実行に費やした時間、または準備状態で予測リクエスト処理の待機に費やした時間を表します。詳細については、予測ジョブの費用の計算をご覧ください。

南北アメリカ

予測
バッチ予測 ノード時間あたり $0.0791
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0401

mls1-c4-m2(ベータ版)

$0.1349

n1-standard-2(ベータ版)

約 $0.0950

n1-standard-4(ベータ版)

約 $0.1900

n1-standard-8(ベータ版)

約 $0.3800

n1-standard-16(ベータ版)

約 $0.7600

n1-standard-32(ベータ版)

約 $0.3800

n1-highmem-2(ベータ版)

約 $0.1183

n1-highmem-4(ベータ版)

約 $0.2366

n1-highmem-8(ベータ版)

約 $0.4732

n1-highmem-16(ベータ版)

約 $0.9464

n1-highmem-32(ベータ版)

約 $1.8928

n1-highcpu-2(ベータ版)

約 $0.0708

n1-highcpu-4(ベータ版)

約 $0.1417

n1-highcpu-8(ベータ版)

約 $0.2834

n1-highcpu-16(ベータ版)

約 $0.5668

n1-highcpu-32(ベータ版)

約 $1.1336

Compute Engine(N1)マシンタイプ(ベータ版)us-central1 リージョンでのみ使用可能です。その料金は Google Cloud 請求書で 2 つの別々の SKU として請求されます。

  • vCPU 費用、vCPU 時間で測定
  • RAM 費用、GB 時間で測定

前の表の Compute Engine(N1)マシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32 マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。

前の表の料金は、オンライン予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した Compute Engine(N1)マシンタイプの vCPU と RAM の料金を示しています。

Compute Engine(N1)マシンタイプ SKU
vCPU vCPU 時間あたり $0.031611
RAM GB 時間あたり $0.004237

オプションで、オンライン予測用の GPU アクセラレータと Compute Engine(N1)マシンタイプを組み合わせて使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80 $0.4500
NVIDIA_TESLA_P4 $0.6000
NVIDIA_TESLA_P100 $1.4600
NVIDIA_TESLA_T4 $0.9500
NVIDIA_TESLA_V100 $2.4800

料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。

ヨーロッパ

予測
バッチ予測 ノード時間あたり $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0441

mls1-c4-m2(ベータ版)

$0.1484

アジア太平洋

予測
バッチ予測 ノード時間あたり $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0515

mls1-c4-m2(ベータ版)

$0.1733

注:

  1. すべてのご利用は AI Platform の割り当てポリシーの対象となります。
  2. 注: このページで使用される「トレーニング ユニット」は、[ジョブの詳細] ページに表示される [消費した ML ユニット] とは異なります。 「消費した ML ユニット」では継続時間がすでに考慮されています。詳しくは下記をご覧ください。
  3. AI Platform のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。 詳しくは、Cloud Storage の使用方法をご覧ください。
  4. ボリューム ベースの割引については、セールスチームにお問い合わせください。
  5. 米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。
  6. 現在、cloud_tpu マシンタイプは、ご使用の構成でアクセラレータを明示的に接続するかどうかにかかわらず、デフォルトで 8 コアが搭載された TPU v2 デバイスとなります。この場合、マシンタイプの表で cloud_tpu に表示された料金が発生します。

    構成で TPU v2 または TPU v3 アクセラレータを cloud_tpu マシンタイプに明示的に接続する場合、cloud_tpu マシンタイプ自体に対する料金は発生しません。代わりに、TPU_V2 または TPU_V3 アクセラレータの接続に対する料金が発生します。

料金計算ツール

料金計算ツールを使用して、トレーニング ジョブと予測ジョブの費用を見積もることができます。

トレーニング ジョブの費用の詳細

クラウドでモデルをトレーニングする際の料金は以下に基づいて計算されます。

  • 1 分単位で課金。
  • 上の表に示す 1 時間あたりの料金に基づく。1 時間あたりの料金は基本料金とトレーニング ユニット数で計算され、トレーニング ユニット数はトレーニング ジョブの開始時に選択した処理構成によって決まる。
  • 1 トレーニング ジョブの最短時間は 10 分。
  • ジョブにリソースがプロビジョニングされたときからジョブが完了するまで。

事前定義された構成のスケール階層

お客様は、モデルをトレーニングする際に使用する処理クラスタのタイプを調整できます。最も簡単な方法は、「スケール階層」という事前に定義された構成の中から 1 つを選択することです。 詳細については、スケール階層をご覧ください。

カスタム構成のマシンタイプ

スケール階層として CUSTOM を選択した場合、クラスタのマスター、ワーカー、パラメータ サーバーとして使用する仮想マシンの数やタイプを調整できます。詳細については、マシンタイプをご覧ください。

カスタム処理クラスタを使用したトレーニング ジョブの費用は、指定した全マシンの合計になります。個々のマシンのアクティブな処理時間ではなく、ジョブの合計時間に対して課金されます。

例: トレーニング ユニットを使用してトレーニング ジョブの費用を計算する

トレーニング ユニットを使用してトレーニング ジョブの費用を計算するには、次の式を使用します。

(training units * base price / 60) * job duration in minutes

例:

  • データ サイエンティストが、南北アメリカのリージョンで STANDARD_1 スケール階層を選択してトレーニング ジョブを実行したとします。このスケール階層は 4.0571 トレーニング ユニットを使用します。このジョブに 15 分かかりました。

    (4.0571 training units * $0.49 per hour / 60) * 15 minutes
    

    このジョブの料金は、総額 $0.50 になります。

  • コンピュータ サイエンスの教授が、南北アメリカのリージョンで CUSTOM スケール階層を使用してトレーニング ジョブを実行したとします。モデルがかなり大きいので、大規模モデルの VM をパラメータ サーバーに利用したいと考え、処理クラスタを次のように構成しました。

    • マスター用の complex_model_s マシン(0.5788 トレーニング ユニット)。
    • large_model VM 上の 5 台のパラメータ サーバー(5 @ 0.9665 = 4.8325 トレーニング ユニット)。
    • complex_model_s VM 上の 8 台のワーカー(8 @ 0.5788 = 4.6304 トレーニング ユニット)。

    そして、ジョブを 2 時間 26 分実行しました。

    (10.0417 training units * $0.49 per hour / 60) * 146 minutes
    

    このジョブの料金は、総額 $11.97 になります。

例: 1 時間あたりの料金を使用してトレーニング ジョブの費用を計算する

トレーニング ユニットの代わりに、上の表に示す 1 時間あたりの料金を使用できます。式は次のとおりです。

(Price per hour / 60) * job duration in minutes

例:

  • データ サイエンティストが、南北アメリカのリージョンで STANDARD_1 スケール階層を選択してトレーニング ジョブを実行したとします。このジョブに 15 分かかりました。

    ($1.9880 per hour / 60) * 15 minutes
    

    このジョブの料金は、総額 $0.50 になります。

  • コンピュータ サイエンスの教授が、南北アメリカのリージョンで CUSTOM スケール階層を使用してトレーニング ジョブを実行したとします。モデルがかなり大きいので、大規模モデルの VM をパラメータ サーバーに利用したいと考え、処理クラスタを次のように構成しました。

    • マスター用の complex_model_s マシン($0.2836)。
    • large_model VM 上の 5 台のパラメータ サーバー(5 @ $0.4736 = $2.3680)。
    • complex_model_s VM 上の 8 台のワーカー(8 @ $0.2836 = $2.2688)。

    そして、ジョブを 2 時間 26 分実行しました。

    (($0.2836 + $2.368 + $2.2688) per hour / 60) * 146 minutes
    

    このジョブの料金は、総額 $11.97 になります。

例: 「消費した ML ユニット」を使用してトレーニング ジョブの費用を計算する

[ジョブの詳細] ページの [消費した ML ユニット](消費した機械学習ユニット)項目に表示される値は、ジョブの継続時間を考慮したトレーニング ユニット数に相当します。「消費した ML ユニット」を計算に使用する場合は、次の式を使用します。

Consumed ML units * $0.49

例:

  • データ サイエンティストが、南北アメリカのリージョンでトレーニング ジョブを実行したとします。 [ジョブの詳細] ページの [消費した ML ユニット] 項目には「55.75」と表示されています。計算は次のとおりです。

    55.75 consumed ML units * $0.49
    

    このジョブの料金は、総額 $27.32 になります。

[ジョブの詳細] ページを開くには、ジョブリストに移動し、特定のジョブのリンクをクリックします。

予測ジョブの費用の詳細

AI Platform の予測では、モデルに基づく予測を提供する際に複数の仮想マシン(「ノード」)を実行します。デフォルトでは、AI Platform により、実行するノードの数が常に自動的にスケールされます。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケール方法はカスタマイズできます。

各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。

  • ノードによるバッチ予測ジョブの処理時間
  • ノードによるオンライン予測リクエストの処理時間
  • ノードがオンライン予測の準備状態になっている時間

1 つのノードを 1 時間実行したときの料金が 1 ノード時間です。予測ジョブの料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。

ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行する料金は 0.5 ノード時間になります。ただし、料金計算にはいくつかのルールが適用されます。

従来の(MLS1)マシンタイプとバッチ予測の料金計算

  • ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
  • ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。

Compute Engine(N1)マシンタイプの料金計算

  • ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の価格でプロジェクトに対して課金されます。

予測ノードの自動スケーリングの詳細

オンライン予測 バッチ予測
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後、数分間にわたってモデルが待機状態に維持されます。 スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。
スケーリングは毎月の合計料金に影響を与えます。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。

お客様は、トラフィック量に応じてサービスにスケールさせることも(自動スケーリング)、レイテンシを回避するために継続実行ノード数を設定することも(手動スケーリング)できます。

  • 自動スケーリングを選択した場合、ノード数は自動的にスケールされ、トラフィックがない期間はゼロにスケールダウンされます。
  • 手動スケーリングを選択した場合は、常時実行されるノードの数を指定する必要があります。この場合、デプロイから始まりモデル バージョンを削除するまで、ノードが実行されているすべての時間が課金対象になります。
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。

最低使用料金 10 分

前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中は、ノードが使用されません。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後に実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。

または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。

特定の時間に実行されるノードの数を正確に制御するために、手動スケーリングを利用できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。

詳しくは、ノードの割り当てとスケーリングをご覧ください。

予測ジョブの計算の例

南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920427738493961 のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72 秒かかりました。

まず、各ジョブの実行時間を計算します。

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

どのジョブも実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。

($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.06855
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.06196
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328

1 か月の総額は $0.26 になります。

この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。現実の使用では、必ず複数のノードを考慮に入れ、各ノードの実際の実行時間を計算に使用してください。

AI Platform Prediction での AI Explanations の料金に関する注意事項

AI Explanations を使用しても AI Platform Prediction で追加料金は発生しません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで AI Explanations を多用すると、開始されるノードが増加し、結果として AI Platform Prediction の料金が増加することがあります。

Cloud Storage の利用

このドキュメントに記載されているオペレーションのほかに、AI Platform のライフサイクル中にはデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象になります。

次の場面で Cloud Storage の利用が必須となります。

  • トレーニング アプリケーション パッケージをステージする。

  • トレーニングの入力データを保存する。

  • モデル バージョンをデプロイする準備ができたら、モデルファイルをステージする。

  • バッチ予測で使用する入力データを保存する。

  • バッチ予測の出力を保存する。AI Platform の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

  • トレーニング ジョブの出力を保存する。AI Platform の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

リソースを管理するための無料のオペレーション

AI Platform が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform 割り当てポリシーにより、オペレーションの一部が制限されることがあります。

リソース 無料のオペレーション
モデル create、get、list、delete
バージョン create、get、list、delete、setDefault
ジョブ get、list、cancel
オペレーション get、list、cancel、delete

次のステップ