料金

AI Platform には、プロジェクトと予算に合わせて選べるさまざまな料金オプションが用意されています。AI Platform では、モデルのトレーニング、予測ジョブの実行に対して料金が発生します。ただし、クラウド内の機械学習リソースの管理は無料で行うことができます。

料金の概要

以下の各表は、AI Platform が利用可能な各リージョンにおけるトレーニング ジョブと予測ジョブの料金をまとめたものです。

トレーニング ジョブの料金

以下の各表は、さまざまなトレーニング構成の 1 時間あたりの料金と、各構成で使用されるトレーニング ユニット2 数を示しています。トレーニング ユニットでは、ジョブのリソースの使用状況が測定されます。マシン構成の 1 時間あたりの料金は、使用されるトレーニング ユニット数にそのリージョンにおけるトレーニング ジョブの費用を掛けたものです。

事前定義されたスケール階層、または特定のマシンタイプのカスタム構成を選択できます。カスタム構成を選択する場合は、使用する仮想マシンの費用を合算します。

アクセラレータを有効にした AI Platform マシンタイプの料金には、アクセラレータの費用が含まれます。Compute Engine マシンタイプにアクセラレータを接続する場合、アクセラレータの費用は含まれません。費用を計算するには、以下のアクセラレータの表に示す料金に、使用する各タイプのアクセラレータの数を掛けます。

南北アメリカ

AI Platform が利用可能な南北アメリカのすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.49 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.1900(0.3878)
STANDARD_1 $1.9880(4.0571)
PREMIUM_1 $16.5536(33.7829)
BASIC_GPU $0.8300(1.6939)
BASIC_TPU $4.6900(9.5714)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使用する仮想マシンの数やタイプを調整できます。マシンタイプについては、表を参照してください。
AI Platform マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数)
standard $0.1900(0.3878)
large_model $0.4736(0.9665)
complex_model_s $0.2836(0.5788)
complex_model_m $0.5672(1.1576)
complex_model_l $1.1344(2.3151)
standard_gpu $0.8300(1.6939)
complex_model_m_gpu $2.5600(5.2245)
complex_model_l_gpu $3.3200(6.7755)
standard_p100 $1.8400(3.7551)
complex_model_m_p100 $6.6000(13.4694)
standard_v100 $2.8600(5.8367)
large_model_v100 $2.9536(6.0278)
complex_model_m_v100 $10.6800(21.7959)
complex_model_l_v100 $21.3600(43.5918)
cloud_tpu6 $4.5000(9.1840)またはなし(アクセラレータを明示的に接続する場合)6
Compute Engine マシンタイプ(ベータ版) - 1 時間あたりの料金(トレーニング ユニット数)
n1-standard-4 $0.1900(0.3878)
n1-standard-8 $0.3800(0.7755)
n1-standard-16 $0.7600(1.5510)
n1-standard-32 $1.5200(3.1020)
n1-standard-64 $3.0400(6.2041)
n1-standard-96 $4.5600(9.3061)
n1-highmem-2 $0.1184(0.2416)
n1-highmem-4 $0.2368(0.4833)
n1-highmem-8 $0.4736(0.9665)
n1-highmem-16 $0.9472(1.9331)
n1-highmem-32 $1.8944(3.8661)
n1-highmem-64 $3.7888(7.7322)
n1-highmem-96 $5.6832(11.5984)
n1-highcpu-16 $0.5672(1.1576)
n1-highcpu-32 $1.1344(2.3151)
n1-highcpu-64 $2.2688(4.6302)
n1-highcpu-96 $3.4020(6.9429)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4500(0.9184)
NVIDIA_TESLA_P4(ベータ版) $0.6000(1.2245)
NVIDIA_TESLA_P100 $1.4600(2.9796)
NVIDIA_TESLA_T4(ベータ版) $0.9500(1.9388)
NVIDIA_TESLA_V100 $2.4800(5.0612)
TPU_V2 コア 8 個6 $4.5000(9.1840)

ヨーロッパ

AI Platform が利用可能なヨーロッパのすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.54 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.2200(0.4074)
STANDARD_1 $2.3020(4.2630)
PREMIUM_1 $19.1640(35.4889)
BASIC_GPU $0.9300(1.7222)
BASIC_TPU (なし)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使用する仮想マシンの数やタイプを調整できます。マシンタイプについては、表を参照してください。
AI Platform マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数)
standard $0.2200(0.4074)
large_model $0.5480(1.0148)
complex_model_s $0.3284(0.6081)
complex_model_m $0.6568(1.2163)
complex_model_l $1.3136(2.4326)
standard_gpu $0.9300(1.7222)
complex_model_m_gpu $2.8400(5.2593)
complex_model_l_gpu $3.7200(6.8889)
standard_p100 $2.0400(3.7778)
complex_model_m_p100 $7.2800(13.4815)
standard_v100 $2.9684(5.4970)
large_model_v100 $3.0708(5.6867)
complex_model_m_v100 $11.0368(20.4385)
complex_model_l_v100 $22.0736(40.8770)
cloud_tpu6 (なし)
Compute Engine マシンタイプ(ベータ版) - 1 時間あたりの料金(トレーニング ユニット数)
n1-standard-4 $0.2200(0.4074)
n1-standard-8 $0.4400(0.8148)
n1-standard-16 $0.8800(1.6296)
n1-standard-32 $1.7600(3.2593)
n1-standard-64 $3.5200(6.5185)
n1-standard-96 $5.2800(9.7778)
n1-highmem-2 $0.1370(0.2537)
n1-highmem-4 $0.2740(0.5074)
n1-highmem-8 $0.5480(1.0148)
n1-highmem-16 $1.0960(2.0296)
n1-highmem-32 $2.1920(4.0593)
n1-highmem-64 $4.3840(8.1185)
n1-highmem-96 $6.5760(12.1778)
n1-highcpu-16 $0.6568(1.2163)
n1-highcpu-32 $1.3136(2.4326)
n1-highcpu-64 $2.6272(4.8652)
n1-highcpu-96 $3.9408(7.2978)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4900(0.9074)
NVIDIA_TESLA_P4(ベータ版) $0.6500(1.2037)
NVIDIA_TESLA_P100 $1.6000(2.9630)
NVIDIA_TESLA_T4(ベータ版) $1.0300(1.9074)
NVIDIA_TESLA_V100 $2.5500(4.7222)
TPU_V2 コア 8 個6 (なし)

アジア太平洋

AI Platform が利用可能なアジア太平洋のすべてのリージョンにおけるトレーニング ジョブの費用は、トレーニング ユニットごとに 1 時間あたり $0.54 です。

事前定義のスケール階層 - 1 時間あたりの料金(トレーニング ユニット数)
BASIC $0.2200(0.4074)
STANDARD_1 $2.3020(4.2630)
PREMIUM_1 $19.1640(35.4889)
BASIC_GPU $0.9300(1.7222)
BASIC_TPU (なし)
CUSTOM スケール階層として CUSTOM を選択した場合、トレーニング ジョブに使用する仮想マシンの数やタイプを調整できます。マシンタイプについては、表を参照してください。
AI Platform マシンタイプ - 1 時間あたりの料金(トレーニング ユニット数)
standard $0.2200(0.4074)
large_model $0.5480(1.0148)
complex_model_s $0.3284(0.6081)
complex_model_m $0.6568(1.2163)
complex_model_l $1.3136(2.4326)
standard_gpu $0.9300(1.7222)
complex_model_m_gpu $2.8400(5.2593)
complex_model_l_gpu $3.7200(6.8889)
standard_p100 $2.0400(3.7778)
complex_model_m_p100 $7.2800(13.4815)
standard_v100 $2.9684(5.4970)
large_model_v100 $3.0708(5.6867)
complex_model_m_v100 $11.0368(20.4385)
complex_model_l_v100 $22.0736(40.8770)
cloud_tpu6 (なし)
Compute Engine マシンタイプ(ベータ版) - 1 時間あたりの料金(トレーニング ユニット数)
n1-standard-4 $0.2200(0.4074)
n1-standard-8 $0.4400(0.8148)
n1-standard-16 $0.8800(1.6296)
n1-standard-32 $1.7600(3.2593)
n1-standard-64 $3.5200(6.5185)
n1-standard-96 $5.2800(9.7778)
n1-highmem-2 $0.1370(0.2537)
n1-highmem-4 $0.2740(0.5074)
n1-highmem-8 $0.5480(1.0148)
n1-highmem-16 $1.0960(2.0296)
n1-highmem-32 $2.1920(4.0593)
n1-highmem-64 $4.3840(8.1185)
n1-highmem-96 $6.5760(12.1778)
n1-highcpu-16 $0.6568(1.2163)
n1-highcpu-32 $1.3136(2.4326)
n1-highcpu-64 $2.6272(4.8652)
n1-highcpu-96 $3.9408(7.2978)
アクセラレータ - 1 時間あたりの料金(トレーニング ユニット数)
NVIDIA_TESLA_K80 $0.4900(0.9074)
NVIDIA_TESLA_P4(ベータ版) (なし)
NVIDIA_TESLA_P100 $1.6000(2.9630)
NVIDIA_TESLA_T4(ベータ版) (なし)
NVIDIA_TESLA_V100 $2.5500(4.7222)
TPU_V2 コア 8 個6 (なし)

予測ジョブの料金

以下の表は、バッチ予測とオンライン予測のノード時間あたりの料金を示しています。ノード時間は、仮想マシンが予測ジョブの実行または準備状態で予測リクエスト処理の待機に消費した時間を表します。詳細については、予測ジョブの費用の計算をご覧ください。

南北アメリカ

予測ジョブ - ノード時間あたりの料金
バッチ予測 $0.0791
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0401

mls1-c4-m2(ベータ版)

$0.1349

ヨーロッパ

予測ジョブ - ノード時間あたりの料金
バッチ予測 $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0441

mls1-c4-m2(ベータ版)

$0.1484

アジア太平洋

予測ジョブ - ノード時間あたりの料金
バッチ予測 $0.0861
オンライン予測
マシンタイプ - ノード時間あたりの料金
mls1-c1-m2(デフォルト)

$0.0515

mls1-c4-m2(ベータ版)

$0.1733

注:

  1. 利用はすべて AI Platform の割り当てポリシーの対象となります。
  2. このページで使用される「トレーニング ユニット」は、[ジョブの詳細] ページの [消費した ML ユニット] 項目に表示される値とは異なります。「消費した ML ユニット」には継続時間がすでに考慮されています。詳しくは下記をご覧ください。
  3. AI Platform のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。詳しくは、Cloud Storage の使用方法をご覧ください。
  4. ボリューム ベースの割引については、セールスチームにお問い合わせください。
  5. 米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。
  6. cloud_tpu マシンタイプは現在、アクセラレータを構成に明示的に接続するかどうかにかかわらず、8 コアの TPU v2 デバイスとなります。いずれの場合も料金は同じです。

料金計算ツール

料金計算ツールを使用して、トレーニング ジョブと予測ジョブの費用を見積もることができます。

トレーニング ジョブの費用の詳細

クラウドでモデルをトレーニングする際の料金は以下に基づいて計算されます。

  • 1 分単位で課金。
  • 上の表に示す 1 時間あたりの料金に基づく。1 時間あたりの料金は基本料金とトレーニング ユニット数で計算され、トレーニング ユニット数はトレーニング ジョブの開始時に選択した処理構成によって決まる。
  • 1 トレーニング ジョブの最短時間は 10 分。
  • ジョブにリソースがプロビジョニングされたときからジョブが完了するまで。

事前定義された構成のスケール階層

ユーザーは、モデルをトレーニングする際に使用する処理クラスタのタイプを調整できます。最も簡単な方法は、「スケール階層」という事前に定義された構成の中から 1 つを選択することです。詳細については、スケール階層をご覧ください。

カスタム構成で使用するマシンタイプ

スケール階層として CUSTOM を選択した場合、クラスタのマスター、ワーカー、パラメータ サーバーとして使用する仮想マシンの数やタイプを調整できます。詳細については、マシンタイプをご覧ください。

カスタム処理クラスタを使用したトレーニング ジョブの費用は、指定した全マシンの合計になります。個々のマシンのアクティブな処理時間ではなく、ジョブの合計時間に対して課金されます。

例: トレーニング ユニットを使用してトレーニング ジョブの費用を計算する

トレーニング ユニットを使用してトレーニング ジョブの費用を計算するには、次の式を使用します。

(training units * base price / 60) * job duration in minutes

例:

  • データ サイエンティストが、南北アメリカのリージョンで STANDARD_1 スケール階層を選択してトレーニング ジョブを実行したとします。このスケール階層は 4.0571 トレーニング ユニットを使用します。このジョブに 15 分かかりました。

    (4.0571 training units * $0.49 per hour / 60) * 15 minutes
    

    このジョブの料金は、総額 $0.50 になります。

  • コンピュータ サイエンスの教授が、南北アメリカのリージョンで CUSTOM スケール階層を使用してトレーニング ジョブを実行したとします。モデルがかなり大きいので、大規模モデルの VM をパラメータ サーバーに利用したいと考え、処理クラスタを次のように構成しました。

    • マスターに complex_model_s マシン(0.5788 トレーニング ユニット)
    • large_model VM を利用した 5 台のパラメータ サーバー(0.9665 × 5 = 4.8325 トレーニング ユニット)
    • complex_model_s VM を利用した 8 台のワーカー(0.5788 × 8 = 4.6304 トレーニング ユニット)

    そして、ジョブを 2 時間 26 分実行しました。

    (10.0417 training units * $0.49 per hour / 60) * 146 minutes
    

    このジョブの料金は、総額 $11.97 になります。

例: 1 時間あたりの料金を使用してトレーニング ジョブの費用を計算する

トレーニング ユニットの代わりに、上の表に示す 1 時間あたりの料金を使用できます。式は次のとおりです。

(Price per hour / 60) * job duration in minutes

例:

  • データ サイエンティストが、南北アメリカのリージョンで STANDARD_1 スケール階層を選択してトレーニング ジョブを実行したとします。このジョブに 15 分かかりました。

    ($1.9880 per hour / 60) * 15 minutes
    

    このジョブの料金は、総額 $0.50 になります。

  • コンピュータ サイエンスの教授が、南北アメリカのリージョンで CUSTOM スケール階層を使用してトレーニング ジョブを実行したとします。モデルがかなり大きいので、大規模モデルの VM をパラメータ サーバーに利用したいと考えています。そこで、処理クラスタを次のように構成しました。

    • マスターに complex_model_s マシン($0.2836)
    • large_model VM を利用した 5 台のパラメータ サーバー($0.4736 × 5 = $2.3680)
    • complex_model_s VM を利用した 8 台のワーカー($0.2836 × 8 = $2.2688)

    そして、ジョブを 2 時間 26 分実行しました。

    (($0.2836 + $2.368 + $2.2688) per hour / 60) * 146 minutes
    

    このジョブの料金は、総額 $11.97 になります。

例: 「消費した ML ユニット」を使用してトレーニング ジョブの費用を計算する

[ジョブの詳細] ページの [消費した ML ユニット](消費した機械学習ユニット)項目に表示される値は、ジョブの継続時間を考慮したトレーニング ユニット数に相当します。「消費した ML ユニット」を計算に使用する場合は、次の式を使用します。

Consumed ML units * $0.49

例:

  • データ サイエンティストが、南北アメリカのリージョンでトレーニング ジョブを実行したとします。[ジョブの詳細] ページの [消費した ML ユニット] 項目には「55.75」と表示されています。計算は次のとおりです。

    55.75 consumed ML units * $0.49
    

    このジョブの料金は、総額 $27.32 になります。

[ジョブの詳細] ページを開くには、ジョブリストに移動し、特定のジョブのリンクをクリックします。

予測ジョブの費用の詳細

AI Platform の予測では、モデルに基づく予測を提供する際に複数の仮想マシン(「ノード」)を実行します。 デフォルトでは、AI Platform により、実行するノードの数が常に自動的にスケールされます。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケール方法はカスタマイズできます。

各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。

  • ノードによるバッチ予測ジョブの処理時間
  • ノードによるオンライン予測リクエストの処理時間
  • ノードがオンライン予測の準備状態になっている時間

1 つのノードを 1 時間実行する料金が 1 ノード時間です。予測ジョブの料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。

ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行する料金は 0.5 ノード時間になります。ただし、料金計算にはいくつかのルールが適用されます。

  • ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
  • ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。

予測ノードの自動スケーリングの詳細

バッチ予測の場合:

  • スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。
  • スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。
  • バッチ予測に使用するノードの最大数を設定し、モデルのデプロイ時に実行を続けるノード数を設定することで、スケーリングに影響を与えることができます。

オンライン予測の場合:

  • スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。
  • このサービスでは、リクエストへの対応後数分間にわたり、モデルが待機状態に維持されます。
  • スケーリングは毎月の合計料金に影響します。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。
  • トラフィック量に応じてサービスにスケールさせること(自動スケーリング)も、レイテンシを回避するために継続実行のノード数を設定することもできます。
  • 自動スケーリングを選択した場合、ノード数は自動的にスケールされ、トラフィックがない期間はゼロにスケールダウンされます。
  • 自動スケーリングではなくノード数を指定する場合、デプロイから始まり、モデル バージョンを削除するまで、ノードが実行されているすべての時間が課金対象になります。

前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中は、ノードが使用されません。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行されます。その後に実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。

または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。

特定の時間に実行されるノードの数を正確に制御するために、手動スケーリングを利用できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。

詳しくは、ノードの割り当てとスケーリングをご覧ください。

予測ジョブの計算の例

南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920427738493961 のバッチで 実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72 秒かかりました。

まず、各ジョブの実行時間を計算します。

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

どのジョブも実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。

($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.06855
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.06196
($0.0791 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.06328

1 か月の総額は $0.26 になります。

この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。現実の使用では、複数のノードを考慮し、各ノードを実行した実際の時間を計算に使用するようにしてください。

Google Cloud Storage の利用

このドキュメントに記載されているオペレーションのほかに、AI Platform のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象になります。

次の場面で Cloud Storage の利用が必須となります。

  • トレーニング アプリケーション パッケージをステージする。

  • トレーニングの入力データを保存する。

  • モデル バージョンをデプロイする準備ができたら、モデルファイルをステージする。

  • バッチ予測で使用する入力データを保存する。

  • バッチ予測の出力を保存する。AI Platform の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

  • トレーニング ジョブの出力を保存する。AI Platform の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

リソースを管理するための無料のオペレーション

AI Platform が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform 割り当てポリシーにより、オペレーションの一部が制限されることがあります。

リソース 無料のオペレーション
モデル create、get、list、delete
バージョン create、get、list、delete、setDefault
ジョブ get、list、cancel
オペレーション get、list、cancel、delete

次のステップ

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

TensorFlow 用 AI Platform