Vertex AI の料金
Vertex AI の費用は、Vertex AI が優先する既存のプロダクトの料金と同じです。たとえば、AutoML 画像分類モデルのトレーニング料金は、トレーニングに Vertex AI を使用する場合も AutoML Vision を使用する場合も同じです。
料金は米ドル(USD)で表しています。米ドル以外の通貨でお支払いの場合は、Cloud Platform SKU に記載されている該当通貨の料金が適用されます。
Vertex AI と従来の AI Platform の料金
Vertex AI オペレーションと同等のレガシー オペレーションの料金は、どのオペレーションでも同じです。たとえば、AI Platform Training を使用してモデルをトレーニングする場合も、Vertex AI Training を使用してモデルをトレーニングした場合と同じ料金になります。
以前の AI Platform プロダクトを使用している場合は、請求金額が「ML ユニット」で表されます。
Vertex AutoML モデル
Vertex AutoML モデルの場合、次の 3 つの主要なアクティビティに対して料金が発生します。
- モデルのトレーニング
- エンドポイントへのモデルのデプロイ
- モデルを使用して予測を行う
Vertex AI は、Vertex AutoML モデル用に事前定義されたマシン構成を使用します。これらのアクティビティの時間単位レートは、リソースの使用量を反映します。
モデルのトレーニングに必要な時間は、トレーニング対象データのサイズや複雑さによって異なります。オンライン予測やオンライン説明を提供するには、モデルをデプロイする必要があります。
予測が行われない場合でも、エンドポイントにデプロイされたモデルごとに課金されます。追加料金の発生を防ぐには、モデルのデプロイ解除を行う必要があります。デプロイされていないモデルまたはデプロイに失敗したモデルは課金されません。
料金に関する情報については、以下のモデルタイプを選択してください。
画像データ
操作 | ノード時間あたりの料金(分類) | 1 ノード時間あたりの料金(オブジェクト検出) |
---|---|---|
トレーニング | 3.465 ドル | 3.465 ドル |
トレーニング(Edge オンデバイス モデル) | 18.00 ドル | 18.00 ドル |
デプロイとオンライン予測 | 1.375 ドル | 2.002 ドル |
バッチ予測 | 2.222 ドル | 2.222 ドル |
動画データ
操作 | ノード時間あたりの料金(分類、オブジェクト トラッキング) | ノード時間あたりの料金(動作認識) |
---|---|---|
トレーニング | 3.234 ドル | 330 円 |
トレーニング(Edge オンデバイス モデル) | 10.78 ドル | 1,100 円 |
予測 | $0.462 | 55 円 |
表形式のデータ
操作 | 分類/回帰のノード時間あたりの料金 | 予測の料金 |
---|---|---|
トレーニング | 21.252 ドル | 21.252 ドル |
予測 | カスタム トレーニング モデルの予測と同じ料金 | 予測 1,000 件あたり $1.00(バッチのみ) |
以前のデプロイメント | $0.004055 | - |
オンライン予測とオンライン説明 | $0.231 | - |
以前のバッチ予測 | 1.276 ドル | - |
テキストデータ
操作 | 料金 |
---|---|
既存のデータのアップロード(PDF のみ) |
毎月最初の 1,000 ページは無料 1,000 ページあたり $1.50 5,000,000 ページでの 1,000 ページあたり $0.60 |
トレーニング | $3.30/時間 |
導入 | $0.05/時間 |
予測 |
1,000 件のテキスト レコードあたり $5.00 PDF ファイルなど、ドキュメント ページ 1,000 件あたり $25.00(従来版のみ) |
Vertex AutoML テキスト予測リクエストの料金は、分析用に送信するテキスト レコードの数に基づいて計算されます。テキスト レコードとは、1,000 文字までの Unicode 文字(空白文字や、HTML / XML タグなどのマークアップ文字も含む)からなる書式なしテキストです。
予測リクエストで提供されたテキストに 1,000 文字を超える文字が含まれる場合、1,000 文字ごとに 1 つのテキスト レコードとしてカウントされます。たとえば、800 文字、1,500 文字、600 文字をそれぞれ含む 3 つのリクエストを送信すると、4 つのテキスト レコードに対して課金されます。最初のリクエスト(800)が 1 回、2 番目のリクエスト(1,500)が 2 回、3 番目のリクエスト(600)が 1 回です。
Vertex Explainable AI の予測料金
Vertex Explainable AI に関連付けられたコンピューティングは、予測と同じレートで課金されます。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで Vertex Explainable AI を多用すると、開始されるノード数が増え、予測料金が増加する可能性があります。
カスタム トレーニングされたモデル
トレーニング
以下のテーブルは、さまざまなトレーニング構成のおよその 1 時間あたりの料金を示しています。選択したマシンタイプのカスタム構成を選択できます。料金を計算するには、使用する仮想マシンの費用を合算してください。
Compute Engine マシンタイプにアクセラレータを接続する場合、アクセラレータの費用は含まれません。費用を計算するには、以下のアクセラレータの表に示す料金に、使用する各タイプのアクセラレータのマシン時間を掛けます。
マシンタイプ
アクセラレータ
ディスク
- 利用はすべて Vertex AI の割り当てポリシーの対象となります。
- Vertex AI のライフサイクル中は、データやプログラム ファイルを Google Cloud Storage のバケットに保存する必要があります。Cloud Storage の使用方法の詳細をご覧ください。
ジョブにリソースがプロビジョニングされたときからジョブが完了するまでは、モデルのトレーニングに対する料金が発生します。
事前定義された構成のスケール階層(AI Platform Training)
モデルをトレーニングする際に使用する処理クラスタのタイプを制御できます。最も簡単な方法は、「スケール階層」という事前に定義された構成の中から 1 つを選択することです。詳細については、スケール階層をご覧ください。
カスタム構成のマシンタイプ
Vertex AI を使用する場合、または AI Platform Training のスケール階層として CUSTOM
を選択する場合は、クラスタのマスター、ワーカー、パラメータ サーバーに使用する仮想マシンの数とタイプを調整できます。詳細については、Vertex AI のマシンタイプと AI Platform Training のマシンタイプをご覧ください。
カスタム処理クラスタを使用したトレーニング ジョブの費用は、指定した全マシンの合計になります。個々のマシンのアクティブな処理時間ではなく、ジョブの合計時間に対して課金されます。
「消費した ML ユニット」を使用してトレーニング ジョブの費用を計算する
[ジョブの詳細] ページの [消費した ML ユニット](消費した機械学習ユニット)項目に表示される値は、ジョブの継続時間を考慮したトレーニング ユニット数に相当します。「消費した ML ユニット」を計算に使用する場合は、次の式を使用します。
(Consumed ML units) * (Machine type cost)
例:
データ サイエンティストが、us-west1(オレゴン)リージョンの
e2-standard-4
マシン インスタンスでトレーニング ジョブを実行したとします。[ジョブの詳細] ページの [消費した ML ユニット] 項目には「55.75」と表示されています。計算は次のとおりです。55.75 consumed ML units * 0.154114
このジョブの料金は、総額 $8.59 になります。
[ジョブの詳細] ページを開くには、ジョブリストに移動し、特定のジョブのリンクをクリックします。
予測と説明
以下の表は、バッチ予測、オンライン予測、オンライン説明の料金をノード時間ごとに示します。ノード時間は、仮想マシンが予測ジョブの実行に費やした時間、または予測や説明リクエストを処理する準備ができた状態で待機した時間を表します。
南北アメリカ大陸
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
予測と説明 |
|
ヨーロッパ
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
予測と説明 |
|
アジア太平洋
予測 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
予測と説明 |
|
マシンタイプごとに、Google Cloud 請求書で 2 つの別々の SKU として課金されます。
- vCPU 費用、vCPU 時間で測定
- RAM 費用、GB 時間で測定
前の表のマシンタイプの料金は、そのマシンタイプを使用するモデル バージョンの予測ノードごとの合計時間単位費用の概算です。たとえば、n1-highcpu-32
マシンタイプには 32 個の vCPU と 28.8 GB の RAM が搭載されているので、ノードあたりの時間単位料金は 32 vCPU 時間 + 28.8 GB 時間に等しくなります。
前の表の料金は、予測費用を見積もるための参考用として提供されています。次の表は、課金対象の SKU をより正確に反映した予測マシンタイプの vCPU と RAM の料金を示しています。
南北アメリカ大陸
予測マシンタイプの SKU | |||||||
---|---|---|---|---|---|---|---|
vCPU |
|
||||||
ラム |
|
ヨーロッパ
予測マシンタイプの SKU | |||||
---|---|---|---|---|---|
vCPU |
|
||||
ラム |
|
アジア太平洋
予測マシンタイプの SKU | |||||||||
---|---|---|---|---|---|---|---|---|---|
vCPU |
|
||||||||
ラム |
|
必要に応じて、予測に GPU アクセラレータを使用できます。GPU には、前の表で説明したものとは別の追加料金がかかります。次の表に、GPU のタイプ別の料金を示します。
南北アメリカ大陸
アクセラレータ - 1 時間あたりの料金 | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
|
ヨーロッパ
アクセラレータ - 1 時間あたりの料金 | |||||
---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||
NVIDIA_TESLA_P4
|
|
||||
NVIDIA_TESLA_P100
|
|
||||
NVIDIA_TESLA_T4
|
|
||||
NVIDIA_TESLA_V100
|
|
アジア太平洋
アクセラレータ - 1 時間あたりの料金 | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
利用不可 |
料金は GPU 単位です。したがって予測ノードあたり複数の GPU を使用する場合(または、複数のノードを使用するようにスケールする場合)は、それに応じて費用もスケールします。
AI Platform Prediction は、多数の仮想マシン(「ノード」)を実行することで、モデルから予測を行います。デフォルトでは、Vertex AI は実行中のノードの数を自動的にスケーリングします。オンライン予測の場合、ノードの数は需要の増減に応じてスケールされます。各ノードで複数の予測リクエストにレスポンスできます。バッチ予測の場合、ノードの数はジョブの実行にかかる合計時間を短縮するようにスケールされます。予測ノードのスケーリング方法はカスタマイズできます。
各ノードでモデルを実行した時間に対して料金が発生します。以下が課金対象の時間となります。
- ノードによるバッチ予測ジョブの処理時間
- ノードによるオンライン予測リクエストの処理時間
- ノードがオンライン予測の準備状態になっている時間
1 つのノードを 1 時間実行したときの料金が 1 ノード時間です。予測料金の表にはノード時間あたりの料金が記載されています。この料金は各リージョンで異なり、オンライン予測とバッチ予測の間でも異なります。
ノード時間は小数単位で増やすことができます。たとえば、1 つのノードを 30 分間実行すると 0.5 ノード時間となります。
以前の(MLS1)マシンタイプとバッチ予測の料金計算
- ノードの実行時間は 1 分単位で測定され、端数は切り上げられます。たとえば、ノードの実行時間が 20.1 分間の場合、21 分間として料金を計算します。
- ノードの実行時間が 10 分未満の場合は 10 分間に切り上げられます。たとえば、ノードの実行時間が 3 分間しかない場合、10 分間として料金を計算します。
Compute Engine(N1)マシンタイプの費用計算
- ノードの実行時間は、30 秒単位で課金されます。つまり 30 秒ごとに、ノードがその時点で使用している vCPU、RAM、GPU リソースの 30 秒分の価格でプロジェクトに対して課金されます。
予測ノードの自動スケーリングの詳細
オンライン予測 | バッチ予測 |
---|---|
スケーリングでは、個々のリクエストのレイテンシを低減することが優先されます。このサービスでは、リクエストへの対応後、数分間にわたってモデルが待機状態に維持されます。 | スケーリングでは、ジョブの合計経過時間を短縮することが優先されます。 |
スケーリングは毎月の合計料金に影響を与えます。リクエストの数や頻度が増えるほど、使用されるノード数も多くなります。 | スケールすると、新しいノードの立ち上げに関連するオーバーヘッドが若干発生しますが、ジョブの料金にはほとんど影響しません。 |
トラフィック量に応じてサービスにスケールさせる(自動スケーリング)ことも、レイテンシを回避するために常時実行するノード数を指定する(手動スケーリング)こともできます。
|
スケーリングに影響を与える方法として、1 つのバッチ予測に使用するノードの最大数を設定したり、モデルのデプロイ時にモデルで実行し続けるノード数を設定したりできます。 |
最低使用料金 10 分
前述のとおり、ノードの実行時間が 10 分未満の場合、10 分間として課金されます。たとえば、自動スケーリングを使用するとします。トラフィックがない期間中に AI Platform Prediction で従来の(MLS1)マシンタイプを使用している場合、0 ノードが使用されます。(AI Platform Prediction で他のマシンタイプを使用する場合、または Vertex AI を使用する場合は、少なくとも 1 つのノードが常に使用されます)。1 つのオンライン予測リクエストを受け取った場合、そのリクエストを処理するためにノードが 1 つスケールアップされます。このノードはリクエストの処理終了後、引き続き準備状態で数分間実行され、その後、実行が停止されます。実行時間が 10 分未満であっても、このノードの作業に対して 10 ノード分間(0.17 ノード時間)の料金が請求されます。
または、ノードが 1 つスケールアップされ、10 分以内に多数のオンライン予測リクエストを処理してからシャットダウンした場合も、10 ノード分間で課金されます。
手動スケーリングを使用すると、一定の時間で実行されるノードの数を正確に制御できます。ただし、ノードの実行時間が 10 分未満の場合も、10 分間として課金されます。
詳しくは、ノードの割り当てとスケーリングをご覧ください。
バッチ予測ジョブは、ジョブの完了後に課金されます
バッチ予測ジョブは、ジョブ中に増分ではなく、ジョブ完了後に課金されます。構成した Cloud Billing 予算アラートは、ジョブの実行中にトリガーされません。大規模なジョブを開始する前に、まず小さな入力データを使用して、コスト ベンチマーク ジョブをいくつか実行することを検討してください。
予測計算の例
南北アメリカ リージョンのある不動産会社が、営業対象地域の住宅価格の週次予測ジョブを実行しているとします。ある月、4 週間分の予測ジョブをそれぞれ 3920
、4277
、3849
、3961
のバッチで実行しました。ジョブは 1 つのノードに制限され、各インスタンスの処理には平均で 0.72
秒かかりました。
まず、各ジョブの実行時間を計算します。
3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes 4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes 3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes 3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
各ジョブの実行時間が 10 分を超えているため、処理時間 1 分ごとに課金されます。
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
1 か月の総額は $0.26 になります。
この例では、ジョブが単一ノードで実行され、入力インスタンスごとに一定の時間がかかったと想定しています。実際の使用では、必ず複数のノードを考慮に入れ、各ノードの実際の実行時間を計算に使用してください。
Vertex Explainable AI の料金
Vertex Explainable AI は予測料金に追加料金はかかりません。ただし、説明を処理するには通常の予測よりも時間がかかるため、自動スケーリングで Vertex Explainable AI を多用すると、開始されるノード数が増え、予測料金が増加する可能性があります。
Vertex AI Pipelines
Vertex AI Pipelines では、パイプライン実行ごとに 0.03 ドルの実行手数料がかかります。プレビュー リリース中に実行手数料が請求されることはありません。また、パイプライン コンポーネントによって使用される Compute Engine リソースなど、Vertex AI Pipelines で使用する Google Cloud リソースに対しても課金されます(Vertex AI トレーニングと同じレートで課金されます)。最後に、パイプラインによって呼び出されるすべてのサービス(Dataflow など)の費用については、お客様の責任となります。
Vertex AI Feature Store
Vertex AI Feature Store の料金は、オンライン ストレージとオフライン ストレージの特徴データの量と、オンライン処理の可用性に基づいて計算されます。ノード時間は、仮想マシンが機能データの提供に費やした時間、または準備状態で待機して機能データのリクエストを処理する時間を表します。
操作 | 料金 |
---|---|
オンライン ストレージ | GB-月あたり $0.25 |
オフラインストレージ | GB-月あたり $0.023 |
オンライン サービング | 1 ノード、1 時間あたり $0.94 |
バッチ エクスポート | $0.005/GB |
Vertex ML Metadata
メタデータ ストレージはバイナリ ギガバイト(GiB)単位で測定されます。1 GiB は 1,073,741,824 バイトです。この測定単位は、gibibyte
とも呼ばれます。
Vertex ML Metadata では、メタデータ ストレージとして 1 ギビバイト(GiB)あたり月額 $10 が課金されます。
Vertex AI TensorBoard
Vertex AI TensorBoard を使用するには、プロジェクトの IAM 管理者から、Vertex AI TensorBoard ウェブアプリ ユーザーのロールを割り当てるようリクエストします。Vertex AI 管理者のロールにもアクセス権があります。
Vertex AI TensorBoard の料金は、一意のアクティブ ユーザーあたり 300 米ドルです。アクティブ ユーザー数は Vertex AI TensorBoard UI で測定されます。また、Cloud Storage に保存されている TensorBoard ログなど、Vertex AI TensorBoard で使用する Google Cloud リソースに対しても料金が発生します。
Vertex AI Vizier
Vertex AI Vizier は、Vertex AI 内のブラックボックス最適化サービスです。Vertex AI Vizier の料金モデルは、次の要素で構成されています。
RANDOM_SEARCH
とGRID_SEARCH
を使用するトライアルは無料でご利用いただけます。検索アルゴリズムの詳細- Vertex AI Vizier は、毎月 100 回まで無料で試用できます(
RANDOM_SEARCH
とGRID_SEARCH
を使用したトライアルはこの合計数にカウントされません)。 - Vertex AI Vizier のトライアルが 100 回を超えると、それ以降の同月トライアルにはトライアルあたり $1 が課金されます(
RANDOM_SEARCH
またはGRID_SEARCH
を使用するトライアルは無料です)。
Vertex AI Matching Engine
Vertex AI Matching Engine の近似最近サービスの料金は、次の要素で構成されます。
- デプロイされたインデックスをホストするために使用される VM ごとのノード時間あたりの料金。
- 新しいインデックスの作成と既存のインデックスの更新にかかる費用。
次の表は、マッチング エンジンが一般提供されている各リージョンにおけるインデックス処理の料金をまとめたものです。
南北アメリカ大陸
マシンタイプ - リージョン - ノード時間あたりの料金 | |||||||||
---|---|---|---|---|---|---|---|---|---|
n1-standard-16
|
|
||||||||
n1-standard-32
|
|
ヨーロッパ
マシンタイプ - リージョン - ノード時間あたりの料金 | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
アジア太平洋
マシンタイプ - リージョン - ノード時間あたりの料金 | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
インデックスの構築と更新時に処理されるデータはバイナリ ギガバイト(GiB)単位で測定されます。1 GiB は 1,073,741,824 バイトです。この測定単位は、gibibyte
とも呼ばれます。
一般提供(GA)では、Vertex AI Matching Engine から全リージョンで処理された 1 ギビバイト(GiB)のデータに対して $3 が課金されます。
Vertex AI のモデル モニタリング
Vertex AI を使用すると、モデルを本番環境にデプロイした後も、モデルの継続的な有効性をモニタリングできます。詳細については、Vertex AI Model Monitoring の概要をご覧ください。
Vertex AI Model Monitoring を使用すると、以下に対して課金されます。
- BigQuery テーブルに記録されたトレーニング データと予測データを含め、分析するすべてのデータに対して 1 GB あたり $3.50。
- アトリビューション モニタリングが有効にされている場合、BigQuery Monitoring や Batch Explain など、Model Monitoring で使用する他の Google Cloud プロダクトに対する課金。
Vertex AI Model Monitoring は、次のリージョンでサポートされています。us-central1
、europe-west4
、asia-east1
、asia-southeast1
。料金はどのリージョンでも同じです。
データサイズは、TfRecord 形式に変換されてから測定されます。
Vertex AI Model Monitoring のジョブを設定する際に、トレーニング データセットに 1 回限りの料金が発生します。
予測データセットは、オンライン予測サービスから収集されたログで構成されます。異なる期間に予測リクエストが到着すると、各時間枠のデータが収集され、各予測時間枠で分析されたデータの合計が料金の計算に使用されます。
例: データ サイエンティストは、自身のモデルに属する予測トラフィックに対してモデル モニタリングを実行します。
- モデルは BigQuery データセットからトレーニングされます。TfRecord に変換した後のデータサイズは 1.5 GB です。
- 予測データは午後 1:00 ~午後 2:00、午後 3:00 ~午後 4:00、0.2 GB です。
モデルのモニタリング ジョブを設定するための合計金額は次のとおりです。
(1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30
Vertex AI Workbench、Deep Learning Containers、Deep Learning VM、AI Platform Pipelines
Deep Learning Containers、Deep Learning VM Image、AI Platform Pipelines の場合、料金は、使用するコンピューティング リソースに基づいて計算されます。これらのリソースには、現在 Compute Engine と Cloud Storage の料金と同じ料金が発生します。
Vertex AI Workbench の場合、インフラストラクチャの使用量に加えて管理手数料がかかります。この金額は下表に記載されています。
マネージド ノートブックまたはユーザー管理のノートブックのいずれかを選択して料金を確認します。
マネージド ノートブック
プレビュー期間中は、マネージド ノートブックの管理手数料は発生しません。
ユーザーが管理するノートブック
SKU | 1 コア時間あたりの管理料金 |
---|---|
vCPU | 0.005 ドル |
T4、K80、P4 GPU | $0.035 |
P100、V100、A100 GPU | 25 円 |
コンピューティングの費用に加えて、使用した Google Cloud リソースの料金も請求されます。例:
データ分析サービス: ノートブックで SQL クエリを発行すると、BigQuery のコストが発生します(BigQuery の料金をご覧ください)。
顧客管理の暗号鍵: 顧客管理の暗号鍵を使用すると費用が発生します。マネージド ノートブックまたはユーザー管理のノートブック インスタンスで Cloud Key Management Service 鍵が使用されると、そのオペレーションの費用は Cloud KMS 鍵オペレーションの料率で請求されます(Cloud Key Management Service の料金をご覧ください)。
データラベル付け
Vertex AI を使用すると、カスタム機械学習モデルのトレーニングに使用するデータのコレクションに対し、ヒューマン ラベリングをリクエストできます。サービス料金は、ラベル付けタスクのタイプに基づいて計算されます。
- 通常のラベル付けタスクの場合、料金はアノテーションの単位数によって決まります。
- 画像分類タスクの場合、画像の数と人間のラベラーの数が単位として決定されます。たとえば、3 名のラベル付け担当者の画像は 1 x 3 = 3 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
- 画像の境界ボックスタスクの場合、単位は、画像内で識別された境界ボックスの数と人間のラベラーの数によって決定されます。たとえば、2 つの境界ボックスと 3 人のヒューマン ラベラーの画像が 2 x 3 = 6 単位としてカウントされます。境界ボックスのない画像は課金されません。
- 画像セグメンテーション/回転ボックス/ポリライン/ポリゴンタスクの場合、単位は画像境界ボックスタスクと同じ方法で決定されます。
- 動画分類タスクの場合、単位は動画の長さ(料金の単位は 5 秒)と人間のラベラーの数によって決定されます。たとえば、25 秒の動画で 3 名のラベラーが 2 人とすると、25 ÷ 5 × 3 = 15 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
- 動画オブジェクト トラッキング タスクの場合は、動画内で識別されたオブジェクトの数と、人間のラベラーの数によって単位が決定されます。たとえば、2 つのオブジェクトと 3 つのヒューマン ラベラーを含む動画の場合、2 x 3 = 6 単位としてカウントされます。オブジェクトのない動画は課金されません。
- 動画動作認識タスクの場合、単位は動画オブジェクト トラッキング タスクと同じ方法で決定されます。
- テキスト分類タスクの場合、単位はテキストの長さ(料金の単位は 50 単語)と人間のラベラーの数によって決定されます。たとえば、100 単語で 1 つのテキストと 3 名のラベラーが 100 ÷ 50 × 3 = 6 単位としてカウントされます。シングルラベル分類とマルチラベル分類の料金は同じです。
- テキスト感情タスクの場合、単位はテキスト分類タスクと同じ方法で決定されます。
- テキスト エンティティ抽出タスクの場合、単位はテキストの長さ(料金の単位は 50 単語)、識別されたエンティティの数、人間のラベラーの数によって決定されます。たとえば、100 単語のテキスト、識別されたエンティティが 2、人間のラベラーが 3 人の場合、100 / 50 × 2 × 3 = 12 単位としてカウントされます。エンティティのないテキストは課金されません。
画像/動画/テキスト分類タスクやテキスト感情タスクの場合、ラベルセットのサイズが大きすぎると、ラベル付け担当者はクラスを追跡できなくなる可能性があります。そのため、一度に最大 20 のクラスをラベル付け担当者に送信しています。たとえば、ラベル付けタスクのラベルセットのサイズが 40 の場合、各データ項目は人間による審査のために 40 / 20 = 2 回送信され、それに応じて(上で計算した)料金の 2 倍が課金されます。
カスタム ラベラー機能を有効にするラベル付けタスクの場合、各データ項目は 1 つのカスタム ラベラー ユニットとしてカウントされます。
モデルによって生成されたアノテーション付きのデータ項目に対するアクティブな学習ラベル付けタスク(ラベル付け担当者の支援なし)の場合、各データ項目は 1 つのアクティブな学習ユニットとしてカウントされます。
ラベル付け担当者によって生成されるアノテーション付きのデータ項目に対するアクティブな学習ラベル付けタスクの場合、各データ項目は上記のように通常のラベル付けタスクとしてカウントされます。
以下の表では、各目的の単位別に、ラベリング担当者 1 名および 1,000 ユニットあたりの料金を示しています。Google Cloud プロジェクトで、月間 5 万単位までは階層 1 の料金が適用されます。月間 5 万単位を超える場合は、それ以降、月 95 万単位まで階層 2 の料金が適用されます。階層 2 の最大ユニット数は、100 万ユニットです。月間 100 万単位を越える場合の料金については、お問い合わせください。
データ型 | 目的 | 所属 | 階層 1 | 階層 2 |
---|---|---|---|---|
イメージ | 分類 | イメージ | 35 ドル | 25 ドル |
境界ボックス | 境界ボックス | 63 ドル | 49 ドル | |
セグメント | 分類して表示 | 870 ドル | 85,000 円 | |
回転ボックス | 境界ボックス | 86 ドル | 6,000 円 | |
ポリゴン/ポリライン | ポリゴン/ポリライン | 257 ドル | 18,000 円 | |
ビデオ | 分類 | 5 秒の動画 | 86 ドル | 6,000 円 |
オブジェクト トラッキング | 境界ボックス | 86 ドル | 6,000 円 | |
動作認識 | 30 秒の動画内のイベント | 21,400 円 | 15,000 円 | |
テキスト | 分類 | 50 単語 | 129 ドル | 9,000 円 |
センチメント | 50 単語 | 20,000 円 | 140 米ドル | |
エンティティの抽出 | エンティティ | 86 ドル | 6,000 円 | |
能動的学習 | すべて | データ項目 | 8,000 円 | 56 ドル |
カスタム ラベラー | すべて | データ項目 | 8,000 円 | 56 ドル |
Cloud Storage の利用
このドキュメントに記載されている費用のほかに、Vertex AI のライフサイクル中はデータやプログラム ファイルを Cloud Storage バケットに保存する必要があります。このストレージは、Cloud Storage 料金ポリシーの対象となります。
次の場合は Cloud Storage の利用が必須となります。
カスタム トレーニング モデル用のトレーニング アプリケーション パッケージをステージする。
トレーニングの入力データを保存する。
トレーニング ジョブの出力を保存する。Vertex AI の場合、こうした出力を長期間保存する必要はありません。オペレーションが完了したら、すぐにファイルを削除できます。
リソースを管理するための無料のオペレーション
AI Platform が提供するリソース管理オペレーションは、無料で利用できます。ただし、AI Platform 割り当てポリシーにより、オペレーションの一部が制限されます。
リソース | 無料のオペレーション |
---|---|
モデル | create、get、list、delete |
バージョン | create、get、list、delete、setDefault |
ジョブ | get、list、cancel |
オペレーション | get、list、cancel、delete |
Google Cloud の費用
分析する画像を Cloud Storage に保存する場合や、他の Google Cloud リソースを Vertex AI と併用する場合は、そのサービスの利用料も請求の対象となります。
Cloud Console で現在の課金ステータス(使用状況や現在の請求額を含む)を確認するには、[お支払い] ページをご覧ください。アカウントの管理について詳しくは、Cloud Billing のドキュメントまたは課金と支払いのサポートをご覧ください。
次のステップ
- Vertex AI のドキュメントを読む。
- Vertex AI のソリューションとユースケースについて学習する。
カスタム見積もりをリクエストする
Google Cloud の従量制課金では、使用したサービスに対してのみ料金が発生します。Google のセールスチームに連絡し、組織に合わせた見積もりをご依頼ください。お問い合わせ