Vertex AI の料金

Vertex AI の費用は、Vertex AI が優先する既存のプロダクトの料金と同じです。たとえば、AutoML 画像分類モデルのトレーニング料金は、トレーニングに Vertex AI を使用する場合も AutoML Vision を使用する場合も同じです。

料金は米ドル(USD)で表しています。米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

Vertex AI と従来の AI Platform の料金

Vertex AI オペレーションと同等のレガシー オペレーションの料金は、どのオペレーションでも同じです。たとえば、AI Platform Training を使用してモデルをトレーニングする場合も、Vertex AI Training を使用してモデルをトレーニングした場合と同じ料金になります。

以前の AI Platform プロダクトを使用している場合は、請求金額が「ML ユニット」で表されます。

Vertex AutoML モデル

Vertex AutoML モデルの場合、次の 3 つの主要なアクティビティに対して料金が発生します。

  • モデルのトレーニング
  • エンドポイントへのモデルのデプロイ
  • モデルを使用して予測を行う

Vertex AI は、Vertex AutoML モデル用に事前定義されたマシン構成を使用します。これらのアクティビティの時間単位レートは、リソースの使用量を反映します。

モデルのトレーニングに必要な時間は、トレーニング対象データのサイズや複雑さによって異なります。オンライン予測やオンライン説明を提供するには、モデルをデプロイする必要があります。

予測が行われない場合でも、エンドポイントにデプロイされたモデルごとに課金されます。追加料金の発生を防ぐには、モデルのデプロイ解除を行う必要があります。デプロイされていないモデルまたはデプロイに失敗したモデルは課金されません。

料金に関する情報については、以下のモデルタイプを選択してください。

画像データ

操作 ノード時間あたりの料金(分類) 1 ノード時間あたりの料金(オブジェクト検出)
トレーニング 3.465 ドル 3.465 ドル
トレーニング(Edge オンデバイス モデル) 18.00 ドル 18.00 ドル
デプロイとオンライン予測 1.375 ドル 2.002 ドル
バッチ予測 2.222 ドル 2.222 ドル

動画データ

操作 ノード時間あたりの料金(分類、オブジェクト トラッキング) ノード時間あたりの料金(動作認識)
トレーニング 3.234 ドル 330 円
トレーニング(Edge オンデバイス モデル) 10.78 ドル 1,100 円
予測 $0.462 55 円

表形式のデータ

操作 分類/回帰のノード時間あたりの料金 予測の料金
トレーニング 21.252 ドル 21.252 ドル
予測 カスタム トレーニング モデルの予測と同じ料金 予測 1,000 件あたり $1.00(バッチのみ)
以前のデプロイメント $0.004055 -
オンライン予測とオンライン説明 $0.231 -
以前のバッチ予測 1.276 ドル -

テキストデータ

操作 料金
既存のデータのアップロード(PDF のみ)

毎月最初の 1,000 ページは無料

1,000 ページあたり $1.50

5,000,000 ページでの 1,000 ページあたり $0.60

トレーニング $3.30/時間
導入 $0.05/時間
予測

1,000 件のテキスト レコードあたり $5.00

PDF ファイルなど、ドキュメント ページ 1,000 件あたり $25.00(従来版のみ)

Vertex AutoML テキスト予測リクエストの料金は、分析用に送信するテキスト レコードの数に基づいて計算されます。テキスト レコードとは、1,000 文字までの Unicode 文字(空白文字や、HTML / XML タグなどのマークアップ文字も含む)からなる書式なしテキストです。

予測リクエストで提供されたテキストに 1,000 文字を超える文字が含まれる場合、1,000 文字ごとに 1 つのテキスト レコードとしてカウントされます。たとえば、800 文字、1,500 文字、600 文字をそれぞれ含む 3 つのリクエストを送信すると、4 つのテキスト レコードに対して課金されます。最初のリクエスト(800)が 1 回、2 番目のリクエスト(1,500)が 2 回、3 番目のリクエスト(600)が 1 回です。

Vertex Explainable AI の予測料金

Vertex Explainable AI に関連付けられたコンピューティングは、予測と同じレートで課金されます。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで Vertex Explainable AI を多用すると、開始されるノード数が増え、予測料金が増加する可能性があります。

カスタム トレーニングされたモデル

トレーニング

以下のテーブルは、さまざまなトレーニング構成のおよその 1 時間あたりの料金を示しています。選択したマシンタイプのカスタム構成を選択できます。料金を計算するには、使用する仮想マシンの費用を合算してください。

Compute Engine マシンタイプにアクセラレータを接続する場合、アクセラレータの費用は含まれません。費用を計算するには、以下のアクセラレータの表に示す料金に、使用する各タイプのアクセラレータのマシン時間を掛けます。

マシンタイプ

米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

アクセラレータ

米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

ディスク

米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。

ジョブにリソースがプロビジョニングされたときからジョブが完了するまでは、モデルのトレーニングに対する料金が発生します。

事前定義された構成のスケール階層(AI Platform Training)

モデルをトレーニングする際に使用する処理クラスタのタイプを制御できます。最も簡単な方法は、「スケール階層」という事前に定義された構成の中から 1 つを選択することです。詳細については、スケール階層をご覧ください。

カスタム構成のマシンタイプ

Vertex AI を使用する場合、または AI Platform Training のスケール階層として CUSTOM を選択する場合は、クラスタのマスター、ワーカー、パラメータ サーバーに使用する仮想マシンの数とタイプを調整できます。詳細については、Vertex AI のマシンタイプAI Platform Training のマシンタイプをご覧ください。

カスタム処理クラスタを使用したトレーニング ジョブの費用は、指定した全マシンの合計になります。個々のマシンのアクティブな処理時間ではなく、ジョブの合計時間に対して課金されます。

「消費した ML ユニット」を使用してトレーニング ジョブの費用を計算する

[ジョブの詳細] ページの [消費した ML ユニット](消費した機械学習ユニット)項目に表示される値は、ジョブの継続時間を考慮したトレーニング ユニット数に相当します。「消費した ML ユニット」を計算に使用する場合は、次の式を使用します。

(Consumed ML units) * (Machine type cost)

例:

  • データ サイエンティストが、us-west1(オレゴン)リージョンの e2-standard-4 マシン インスタンスでトレーニング ジョブを実行したとします。[ジョブの詳細] ページの [消費した ML ユニット] 項目には「55.75」と表示されています。計算は次のとおりです。

    55.75 consumed ML units * 0.154114

    このジョブの料金は、総額 $8.59 になります。

[ジョブの詳細] ページを開くには、ジョブリストに移動し、特定のジョブのリンクをクリックします。

予測と説明

以下の表は、バッチ予測、オンライン予測、オンライン説明の料金をノード時間ごとに示します。ノード時間は、仮想マシンが予測ジョブの実行に費やした時間、または予測や説明リクエストを処理する準備ができた状態で待機した時間を表します。

南北アメリカ大陸

予測
予測と説明
マシンタイプ - ノード時間あたりの料金
n1-standard-2 概算値:
us-east4 $0.123
northamerica-northeast1 $0.1203
南北アメリカのその他のリージョン $0.1093
n1-standard-4 概算値:
us-east4 $0.2461
northamerica-northeast1 $0.2405
南北アメリカのその他のリージョン $0.2186
n1-standard-8 概算値:
us-east4 $0.4922
northamerica-northeast1 $0.4811
南北アメリカのその他のリージョン $0.4372
n1-standard-16 概算値:
us-east4 $0.9843
northamerica-northeast1 $0.9622
南北アメリカのその他のリージョン $0.8744
n1-standard-32 概算値:
us-east4 1.9687 ドル
northamerica-northeast1 1.9243 ドル
南北アメリカのその他のリージョン 1.7488 ドル
n1-highmem-2 概算値:
us-east4 $0.1532
northamerica-northeast1 $0.1498
南北アメリカのその他のリージョン $0.1361
n1-highmem-4 概算値:
us-east4 $0.3064
northamerica-northeast1 $0.2995
南北アメリカのその他のリージョン $0.2723
n1-highmem-8 概算値:
us-east4 $0.6129
northamerica-northeast1 $0.5991
南北アメリカのその他のリージョン $0.5445
n1-highmem-16 概算値:
us-east4 122,577 円
northamerica-northeast1 $1.1982
南北アメリカのその他のリージョン 108 円
n1-highmem-32 概算値:
us-east4 2.4515 ドル
northamerica-northeast1 2.3963 ドル
南北アメリカのその他のリージョン 2.178 ドル
n1-highcpu-2 概算値:
us-east4 $0.0918
northamerica-northeast1 $0.0897
南北アメリカのその他のリージョン $0.0815
n1-highcpu-4 概算値:
us-east4 $0.1835
northamerica-northeast1 $0.1794
南北アメリカのその他のリージョン $0.163
n1-highcpu-8 概算値:
us-east4 $0.3671
northamerica-northeast1 $0.3588
南北アメリカのその他のリージョン 32 円
n1-highcpu-16 概算値:
us-east4 $0.7341
northamerica-northeast1 $0.7176
南北アメリカのその他のリージョン $0.6519
n1-highcpu-32 概算値:
us-east4 1.4683 ドル
northamerica-northeast1 1.4352 ドル
南北アメリカのその他のリージョン $1.3039

ヨーロッパ

予測
予測と説明
マシンタイプ - ノード時間あたりの料金
n1-standard-2 概算値:
europe-west2 $0.1408
ヨーロッパのその他のリージョン $0.1265
n1-standard-4 概算値:
europe-west2 $0.2815
ヨーロッパのその他のリージョン $0.2531
n1-standard-8 概算値:
europe-west2 $0.563
ヨーロッパのその他のリージョン $0.5061
n1-standard-16 概算値:
europe-west2 1.126 ドル
ヨーロッパのその他のリージョン 101 円
n1-standard-32 概算値:
europe-west2 2.2521 ドル
ヨーロッパのその他のリージョン 2.0245 ドル
n1-highmem-2 概算値:
europe-west2 $0.1753
ヨーロッパのその他のリージョン $0.1575
n1-highmem-4 概算値:
europe-west2 $0.3506
ヨーロッパのその他のリージョン $0.3151
n1-highmem-8 概算値:
europe-west2 $0.7011
ヨーロッパのその他のリージョン $0.6302
n1-highmem-16 概算値:
europe-west2 $1.4022
ヨーロッパのその他のリージョン 126,033 円
n1-highmem-32 概算値:
europe-west2 2.8,044 ドル
ヨーロッパのその他のリージョン 2.5206 ドル
n1-highcpu-2 概算値:
europe-west2 $0.105
ヨーロッパのその他のリージョン $0.0944
n1-highcpu-4 概算値:
europe-west2 21 円
ヨーロッパのその他のリージョン $0.1888
n1-highcpu-8 概算値:
europe-west2 $0.4199
ヨーロッパのその他のリージョン $0.3776
n1-highcpu-16 概算値:
europe-west2 $0.8398
ヨーロッパのその他のリージョン $0.7552
n1-highcpu-32 概算値:
europe-west2 1.6796 ドル
ヨーロッパのその他のリージョン 1.5104 ドル

アジア太平洋

予測
予測と説明
マシンタイプ - ノード時間あたりの料金
n1-standard-2 概算値:
asia-northeast1 $0.1402
asia-southeast1 $0.1348
australia-southeast1 $0.155
その他のアジア太平洋地域 $0.1265
n1-standard-4 概算値:
asia-northeast1 $0.2803
asia-southeast1 $0.2695
australia-southeast1 31 円
その他のアジア太平洋地域 $0.2531
n1-standard-8 概算値:
asia-northeast1 $0.5606
asia-southeast1 $0.5391
australia-southeast1 $0.6201
その他のアジア太平洋地域 $0.5061
n1-standard-16 概算値:
asia-northeast1 $1.1213
asia-southeast1 1.0782 ドル
australia-southeast1 $1.2401
その他のアジア太平洋地域 101 円
n1-standard-32 概算値:
asia-northeast1 2.2426 ドル
asia-southeast1 2.1564 ドル
australia-southeast1 2.4802 ドル
その他のアジア太平洋地域 2.0245 ドル
n1-highmem-2 概算値:
asia-northeast1 $0.1744
asia-southeast1 $0.1678
australia-southeast1 $0.193
その他のアジア太平洋地域 $0.1575
n1-highmem-4 概算値:
asia-northeast1 $0.3489
asia-southeast1 $0.3357
australia-southeast1 $0.3861
その他のアジア太平洋地域 $0.3151
n1-highmem-8 概算値:
asia-northeast1 $0.6977
asia-southeast1 $0.6713
australia-southeast1 $0.7721
その他のアジア太平洋地域 $0.6302
n1-highmem-16 概算値:
asia-northeast1 1.3955 ドル
asia-southeast1 1.3426 ドル
australia-southeast1 1.5443 ドル
その他のアジア太平洋地域 126,033 円
n1-highmem-32 概算値:
asia-northeast1 2.791 ドル
asia-southeast1 2.6852 ドル
australia-southeast1 3.0885 ドル
その他のアジア太平洋地域 2.5206 ドル
n1-highcpu-2 概算値:
asia-northeast1 $0.1046
asia-southeast1 $0.1005
australia-southeast1 $0.1156
その他のアジア太平洋地域 $0.0944
n1-highcpu-4 概算値:
asia-northeast1 $0.2093
asia-southeast1 $0.201
australia-southeast1 $0.2312
その他のアジア太平洋地域 $0.1888
n1-highcpu-8 概算値:
asia-northeast1 $0.4186
asia-southeast1 $0.4021
australia-southeast1 $0.4624
その他のアジア太平洋地域 $0.3776
n1-highcpu-16 概算値:
asia-northeast1 $0.8371
asia-southeast1 $0.8041
australia-southeast1 $0.9249
その他のアジア太平洋地域 $0.7552
n1-highcpu-32 概算値:
asia-northeast1 1.6742 ドル
asia-southeast1 1.6082 ドル
australia-southeast1 1.8498 ドル
その他のアジア太平洋地域 1.5104 ドル

マシンタイプごとに、Google Cloud 請求書で 2 つの別々の SKU として課金されます。

  • vCPU 費用、vCPU 時間で測定
  • RAM 費用、GB 時間で測定

前の表のマシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32 マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。

前の表の料金は、予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した予測マシンタイプの vCPU と RAM の料金を示しています。

南北アメリカ大陸

予測マシンタイプの SKU
vCPU
北バージニア(us-east4 vCPU 時間あたり $0.04094575
モントリオール(northamerica-northeast1 vCPU 時間あたり $0.0400223
南北アメリカのその他のリージョン vCPU 時間あたり $0.03635495
ラム
北バージニア(us-east4 GB 時間あたり $0.00548665
モントリオール(northamerica-northeast1 GB 時間あたり $0.0053636
南北アメリカのその他のリージョン GB 時間あたり $0.0048783

ヨーロッパ

予測マシンタイプの SKU
vCPU
ロンドン(europe-west2 vCPU 時間あたり $0.0468395
ヨーロッパのその他のリージョン vCPU 時間あたり $0.0421268
ラム
ロンドン(europe-west2 GB 時間あたり $0.0062767
ヨーロッパのその他のリージョン GB 時間あたり $0.0056373

アジア太平洋

予測マシンタイプの SKU
vCPU
東京(asia-northeast1 vCPU 時間あたり $0.0467107
シンガポール(asia-southeast1 vCPU 時間あたり $0.04484885
シドニー(australia-southeast1 vCPU 時間あたり $0.0515844
その他のアジア太平洋地域 vCPU 時間あたり $0.0421268
ラム
東京(asia-northeast1 GB 時間あたり $0.00623185
シンガポール(asia-southeast1 GB 時間あたり $0.0060099
シドニー(australia-southeast1 GB 時間あたり $0.00691265
その他のアジア太平洋地域 GB 時間あたり $0.0056373

必要に応じて、予測に GPU アクセラレータを使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。

南北アメリカ大陸

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80
アイオワ(us-central1 $0.5175
サウス カロライナ(us-east1 $0.5175
NVIDIA_TESLA_P4
アイオワ(us-central1 $0.6900
北バージニア(us-east4 $0.6900
モントリオール(northamerica-northeast1 $0.7475
NVIDIA_TESLA_P100
オレゴン(us-west1 1.6790 ドル
アイオワ(us-central1 1.6790 ドル
サウス カロライナ(us-east1 1.6790 ドル
NVIDIA_TESLA_T4
オレゴン(us-west1 $0.4025
アイオワ(us-central1 $0.4025
サウス カロライナ(us-east1 $0.4025
NVIDIA_TESLA_V100
オレゴン(us-west1 2.8520 ドル
アイオワ(us-central1 2.8520 ドル

ヨーロッパ

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80
ベルギー(europe-west1 $0.5635
NVIDIA_TESLA_P4
オランダ(europe-west4 $0.7475
NVIDIA_TESLA_P100
ベルギー(europe-west1 $1.8400
NVIDIA_TESLA_T4
ロンドン(europe-west2 $0.4715
オランダ(europe-west4 $0.4370
NVIDIA_TESLA_V100
オランダ(europe-west4 2.9325 ドル

アジア太平洋

アクセラレータ - 1 時間あたりの料金
NVIDIA_TESLA_K80
台湾(asia-east1 $0.5635
NVIDIA_TESLA_P4
シンガポール(asia-southeast1 $0.7475
シドニー(australia-southeast1 $0.7475
NVIDIA_TESLA_P100
台湾(asia-east1 $1.8400
NVIDIA_TESLA_T4
東京(asia-northeast1 $0.4255
シンガポール(asia-southeast1 $0.4255
ソウル(asia-northeast3 $0.4485
NVIDIA_TESLA_V100 利用不可

料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。

AI Platform Prediction は、多数の仮想マシン(「ノード」)を実行することで、モデルから予測を行います。デフォルトでは、Vertex AI は実行中のノードの数を自動的にスケーリングします。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケーリング方法はカスタマイズできます。

各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。

  • ノードによるバッチ予測ジョブの処理時間
  • ノードによるオンライン予測リクエストの処理時間
  • ノードがオンライン予測の準備状態になっている時間

1 つのノードを 1 時間実行したときの料金が 1 ノード時間です。予測料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。

ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行すると 0.5 ノード時間となります。

以前の(MLS1)マシンタイプとバッチ予測の料金計算

  • ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
  • ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。

Compute Engine(N1)マシンタイプの費用計算

  • ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の価格でプロジェクトに対して課金されます。

予測ノードの自動スケーリングの詳細

オンライン予測 バッチ予測
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後、数分間にわたってモデルが待機状態に維持されます。 スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。
スケーリングは毎月の合計料金に影響を与えます。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。

トラフィック量に応じてサービスにスケールさせる(自動スケーリング)ことも、レイテンシを回避するために常時実行するノード数を指定する(手動スケーリング)こともできます。

  • 自動スケーリングを選択した場合、ノード数は自動的にスケーリングされます。AI Platform Prediction レガシー(MLS1)マシンタイプのデプロイでは、トラフィックがない期間はノード数をゼロにスケールダウンできます。Vertex AI のデプロイやその他のタイプの AI Platform Prediction のデプロイでは、ゼロノードへのスケールダウンはできません。
  • 手動スケーリングを選択した場合は、常時実行されるノードの数を指定する必要があります。デプロイから始まりモデル バージョンを削除するまで、ノードが実行されているすべての時間が課金対象になります。
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。

最低使用料金 10 分

前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中に AI Platform Prediction で従来の(MLS1)マシンタイプを使用している場合、0 ノードが使用されます。(AI Platform Prediction で他のマシンタイプを使用する場合、または Vertex AI を使用する場合は、少なくとも 1 つのノードが常に使用されます)。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後、実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。

または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。

手動スケーリングを使用すると、一定の時間で実行されるノードの数を正確に制御できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。

詳しくは、ノードの割り当てとスケーリングをご覧ください。

バッチ予測ジョブは、ジョブの完了後に課金されます

バッチ予測ジョブは、ジョブ中に増分ではなく、ジョブ完了後に課金されます。構成した Cloud Billing 予算アラートは、ジョブの実行中にトリガーされません。大規模なジョブを開始する前に、まず小さな入力データを使用して、コスト ベンチマーク ジョブをいくつか実行することを検討してください。

予測計算の例

南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920427738493961 のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72 秒かかりました。

まず、各ジョブの実行時間を計算します。

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

各ジョブの実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。

($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964

1 か月の総額は $0.26 になります。

この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。実際の使用では、必ず複数のノードを考慮に入れ、各ノードの実際の実行時間を計算に使用してください。

Vertex Explainable AI の料金

Vertex Explainable AI は予測料金に追加料金はかかりません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで Vertex Explainable AI を多用すると、開始されるノード数が増え、予測料金が増加する可能性があります。

Vertex AI Pipelines

Vertex AI Pipelines では、パイプライン実行ごとに 0.03 ドルの実行手数料がかかります。プレビュー リリース中に実行手数料が請求されることはありません。また、パイプライン コンポーネントによって使用される Compute Engine リソースなど、Vertex AI Pipelines で使用する Google Cloud リソースに対しても課金されます(Vertex AI トレーニングと同じレートで課金されます)。最後に、パイプラインによって呼び出されるすべてのサービス(Dataflow など)の費用については、お客様の責任となります。

Vertex AI Feature Store

Vertex AI Feature Store の料金は、オンライン ストレージとオフライン ストレージの特徴データの量と、オンライン処理の可用性に基づいて計算されます。ノード時間は、仮想マシンが機能データの提供に費やした時間、または準備状態で待機して機能データのリクエストを処理する時間を表します。

操作 料金
オンライン ストレージ GB-月あたり $0.25
オフラインストレージ GB-月あたり $0.023
オンライン サービング 1 ノード、1 時間あたり $0.94
バッチ エクスポート $0.005/GB

Vertex ML Metadata

メタデータ ストレージはバイナリ ギガバイト(GiB)単位で測定されます。1 GiB は 1,073,741,824 バイトです。この測定単位は、gibibyteとも呼ばれます。

Vertex ML Metadata では、メタデータ ストレージとして 1 ギビバイト(GiB)あたり月額 $10 が課金されます。

Vertex AI TensorBoard

Vertex AI TensorBoard を使用するには、プロジェクトの IAM 管理者から、Vertex AI TensorBoard ウェブアプリ ユーザーのロールを割り当てるようリクエストします。Vertex AI 管理者のロールにもアクセス権があります。

Vertex AI TensorBoard の料金は、一意のアクティブ ユーザーあたり 300 米ドルです。アクティブ ユーザー数は Vertex AI TensorBoard UI で測定されます。また、Cloud Storage に保存されている TensorBoard ログなど、Vertex AI TensorBoard で使用する Google Cloud リソースに対しても料金が発生します。

Vertex AI Vizier

Vertex AI Vizier は、Vertex AI 内のブラックボックス最適化サービスです。Vertex AI Vizier の料金モデルは、次の要素で構成されています。

  • RANDOM_SEARCHGRID_SEARCH を使用するトライアルは無料でご利用いただけます。検索アルゴリズムの詳細
  • Vertex AI Vizier は、毎月 100 回まで無料で試用できます(RANDOM_SEARCHGRID_SEARCH を使用したトライアルはこの合計数にカウントされません)。
  • Vertex AI Vizier のトライアルが 100 回を超えると、それ以降の同月トライアルにはトライアルあたり $1 が課金されます(RANDOM_SEARCH または GRID_SEARCH を使用するトライアルは無料です)。

Vertex AI Matching Engine

Vertex AI Matching Engine の近似最近サービスの料金は、次の要素で構成されます。

  • デプロイされたインデックスをホストするために使用される VM ごとのノード時間あたりの料金。
  • 新しいインデックスの作成と既存のインデックスの更新にかかる費用。

次の表は、マッチング エンジンが一般提供されている各リージョンにおけるインデックス処理の料金をまとめたものです。

南北アメリカ大陸

マシンタイプ - リージョン - ノード時間あたりの料金
n1-standard-16
us-central1 106 円
us-east1 106 円
us-east4 $1.1984
us-west1 106 円
n1-standard-32
us-central1 2.1280 ドル
us-east1 2.1280 ドル
us-east4 2.3968 ドル
us-west1 2.1280 ドル

ヨーロッパ

マシンタイプ - リージョン - ノード時間あたりの料金
n1-standard-16
europe-west1 1.1715 ドル
n1-standard-32
europe-west1 2.3430 ドル

アジア太平洋

マシンタイプ - リージョン - ノード時間あたりの料金
n1-standard-16
asia-southeast1 1.3126 ドル
n1-standard-32
asia-southeast1 2.6252 ドル

インデックスの構築と更新時に処理されるデータはバイナリ ギガバイト(GiB)単位で測定されます。1 GiB は 1,073,741,824 バイトです。この測定単位は、gibibyteとも呼ばれます。

一般提供(GA)では、Vertex AI Matching Engine から全リージョンで処理された 1 ギビバイト(GiB)のデータに対して $3 が課金されます。

Vertex AI のモデル モニタリング

Vertex AI を使用すると、モデルを本番環境にデプロイした後も、モデルの継続的な有効性をモニタリングできます。詳細については、Vertex AI Model Monitoring の概要をご覧ください。

Vertex AI Model Monitoring を使用すると、以下に対して課金されます。

  • BigQuery テーブルに記録されたトレーニング データと予測データを含め、分析するすべてのデータに対して 1 GB あたり $3.50。
  • アトリビューション モニタリングが有効にされている場合、BigQuery Monitoring や Batch Explain など、Model Monitoring で使用する他の Google Cloud プロダクトに対する課金。

Vertex AI Model Monitoring は、次のリージョンでサポートされています。us-central1europe-west4asia-east1asia-southeast1。料金はどのリージョンでも同じです。

データサイズは、TfRecord 形式に変換されてから測定されます。

Vertex AI Model Monitoring のジョブを設定する際に、トレーニング データセットに 1 回限りの料金が発生します。

予測データセットは、オンライン予測サービスから収集されたログで構成されます。異なる期間に予測リクエストが到着すると、各時間枠のデータが収集され、各予測時間枠で分析されたデータの合計が料金の計算に使用されます。

例: データ サイエンティストは、自身のモデルに属する予測トラフィックに対してモデル モニタリングを実行します。

  • モデルは BigQuery データセットからトレーニングされます。TfRecord に変換した後のデータサイズは 1.5 GB です。
  • 予測データは午後 1:00 ~午後 2:00、午後 3:00 ~午後 4:00、0.2 GB です。
  • モデルのモニタリング ジョブを設定するための合計金額は次のとおりです。

    (1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30

Vertex AI Workbench、Deep Learning Containers、Deep Learning VM、AI Platform Pipelines

Deep Learning Containers、Deep Learning VM Image、AI Platform Pipelines の場合、料金は、使用するコンピューティング リソースに基づいて計算されます。これらのリソースには、現在 Compute EngineCloud Storage の料金と同じ料金が発生します。

Vertex AI Workbench の場合、インフラストラクチャの使用量に加えて管理手数料がかかります。この金額は下表に記載されています。

マネージド ノートブックまたはユーザー管理のノートブックのいずれかを選択して料金を確認します。

マネージド ノートブック

プレビュー期間中は、マネージド ノートブックの管理手数料は発生しません。

ユーザーが管理するノートブック

SKU 1 コア時間あたりの管理料金
vCPU 0.005 ドル
T4、K80、P4 GPU $0.035
P100、V100、A100 GPU 25 円

コンピューティングの費用に加えて、使用した Google Cloud リソースの料金も請求されます。例:

  • データ分析サービス: ノートブックで SQL クエリを発行すると、BigQuery のコストが発生します(BigQuery の料金をご覧ください)。

  • 顧客管理の暗号鍵: 顧客管理の暗号鍵を使用すると費用が発生します。マネージド ノートブックまたはユーザー管理のノートブック インスタンスで Cloud Key Management Service 鍵が使用されると、そのオペレーションの費用は Cloud KMS 鍵オペレーションの料率で請求されます(Cloud Key Management Service の料金をご覧ください)。

データラベル付け

Vertex AI を使用すると、カスタム機械学習モデルのトレーニングに使用するデータのコレクションに対し、ヒューマン ラベリングをリクエストできます。サービス料金は、ラベル付けタスクのタイプに基づいて計算されます。

  • 通常のラベル付けタスクの場合、料金はアノテーションの単位数によって決まります。
    • 画像分類タスクの場合、画像の数と人間のラベラーの数が単位として決定されます。たとえば、3 名のラベル付け担当者の画像は 1 x 3 = 3 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
    • 画像の境界ボックスタスクの場合、単位は、画像内で識別された境界ボックスの数と人間のラベラーの数によって決定されます。たとえば、2 つの境界ボックスと 3 人のヒューマン ラベラーの画像が 2 x 3 = 6 単位としてカウントされます。境界ボックスのない画像は課金されません。
    • 画像セグメンテーション/回転ボックス/ポリライン/ポリゴンタスクの場合、単位は画像境界ボックスタスクと同じ方法で決定されます。
    • 動画分類タスクの場合、単位は動画の長さ(料金の単位は 5 秒)と人間のラベラーの数によって決定されます。たとえば、25 秒の動画で 3 名のラベラーが 2 人とすると、25 ÷ 5 × 3 = 15 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
    • 動画オブジェクト トラッキング タスクの場合は、動画内で識別されたオブジェクトの数と、人間のラベラーの数によって単位が決定されます。たとえば、2 つのオブジェクトと 3 つのヒューマン ラベラーを含む動画の場合、2 x 3 = 6 単位としてカウントされます。オブジェクトのない動画は課金されません。
    • 動画動作認識タスクの場合、単位は動画オブジェクト トラッキング タスクと同じ方法で決定されます。
    • テキスト分類タスクの場合、単位はテキストの長さ(料金の単位は 50 単語)と人間のラベラーの数によって決定されます。たとえば、100 単語で 1 つのテキストと 3 名のラベラーが 100 ÷ 50 × 3 = 6 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
    • テキスト感情タスクの場合、単位はテキスト分類タスクと同じ方法で決定されます。
    • テキスト エンティティ抽出タスクの場合、単位はテキストの長さ(料金の単位は 50 単語)、識別されたエンティティの数、人間のラベラーの数によって決定されます。たとえば、100 単語のテキスト、識別されたエンティティが 2、人間のラベラーが 3 人の場合、100 / 50 × 2 × 3 = 12 単位としてカウントされます。エンティティのないテキストは課金されません。
  • 画像/動画/テキスト分類タスクやテキスト感情タスクの場合、ラベルセットのサイズが大きすぎると、ラベル付け担当者はクラスを追跡できなくなる可能性があります。そのため、一度に最大 20 のクラスをラベル付け担当者に送信しています。たとえば、ラベル付けタスクのラベルセットのサイズが 40 の場合、各データ項目は人間による審査のために 40 / 20 = 2 回送信され、それに応じて(上で計算した)料金の 2 倍が課金されます。

  • カスタム ラベラー機能を有効にするラベル付けタスクの場合、各データ項目は 1 つのカスタム ラベラー ユニットとしてカウントされます。

  • モデルによって生成されたアノテーション付きのデータ項目に対するアクティブな学習ラベル付けタスク(ラベル付け担当者の支援なし)の場合、各データ項目は 1 つのアクティブな学習ユニットとしてカウントされます。

  • ラベル付け担当者によって生成されるアノテーション付きのデータ項目に対するアクティブな学習ラベル付けタスクの場合、各データ項目は上記のように通常のラベル付けタスクとしてカウントされます。

以下の表では、各目的の単位別に、ラベリング担当者 1 名および 1,000 ユニットあたりの料金を示しています。Google Cloud プロジェクトで、月間 5 万単位までは階層 1 の料金が適用されます。月間 5 万単位を超える場合は、それ以降、月 95 万単位まで階層 2 の料金が適用されます。階層 2 の最大ユニット数は、100 万ユニットです。月間 100 万単位を越える場合の料金については、お問い合わせください

データ型 目的 所属 階層 1 階層 2
イメージ 分類 イメージ 35 ドル 25 ドル
境界ボックス 境界ボックス 63 ドル 49 ドル
セグメント 分類して表示 870 ドル 85,000 円
回転ボックス 境界ボックス 86 ドル 6,000 円
ポリゴン/ポリライン ポリゴン/ポリライン 257 ドル 18,000 円
ビデオ 分類 5 秒の動画 86 ドル 6,000 円
オブジェクト トラッキング 境界ボックス 86 ドル 6,000 円
動作認識 30 秒の動画内のイベント 21,400 円 15,000 円
テキスト 分類 50 単語 129 ドル 9,000 円
センチメント 50 単語 20,000 円 140 米ドル
エンティティの抽出 エンティティ 86 ドル 6,000 円
能動的学習 すべて データ項目 8,000 円 56 ドル
カスタム ラベラー すべて データ項目 8,000 円 56 ドル

Cloud Storage の利用

このドキュメントに記載されている費用のほかに、Vertex AI のライフサイクル中はデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象となります。

次の場合は Cloud Storage の利用が必須となります。

  • カスタム トレーニング モデル用のトレーニング アプリケーション パッケージをステージする。

  • トレーニングの入力データを保存する。

  • トレーニング ジョブの出力を保存する。Vertex AI の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。

リソースを管理するための無料のオペレーション

AI Platform が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform 割り当てポリシーにより、オペレーションの一部が制限されます。

リソース 無料のオペレーション
モデル create、get、list、delete
バージョン create、get、list、delete、setDefault
ジョブ get、list、cancel
オペレーション get、list、cancel、delete

Google Cloud の費用

分析する画像を Cloud Storage に保存する場合や、他の Google Cloud リソースを Vertex AI と併用する場合は、そのサービスの利用料も請求の対象となります。

Cloud Console で現在の課金ステータス(使用状況や現在の請求額を含む)を確認するには、[お支払い] ページをご覧ください。アカウントの管理について詳しくは、Cloud Billing のドキュメントまたは課金と支払いのサポートをご覧ください。

次のステップ