AI Platform ユーザー用の Vertex AI

Vertex AI では、AI Platform と AutoML が 1 つのインターフェースに統合されています。このページでは、AI Platform に慣れているユーザーを対象に、Vertex AI と AI Platform の違いについて説明します。

カスタム トレーニング

Vertex AI では、AutoML でモデルをトレーニングできます。また、カスタム トレーニングも可能です。このワークフローは、AI Platform Training に似ています。

タスク AI Platform Training Vertex AI
使用する機械学習フレームワークのバージョンを選択する Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。
ランタイム バージョン - トレーニング ジョブを送信するときに、目的のフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 ビルド済みコンテナ - カスタム トレーニング ジョブを送信するときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。
カスタム コンテナを使用してトレーニング ジョブを送信する 独自のカスタム コンテナをビルドして、Artifact Registry にホストし、それを使用してトレーニング アプリを実行します。
使用する Google Cloud リージョンを設定する トレーニング ジョブをグローバル エンドポイント(ml.googleapis.com)に送信するときに、リージョンの名前を指定します。 カスタム トレーニング ジョブをリージョン エンドポイント(us-central1-aiplatform.googleapis.com など)に送信します。 グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。
分散トレーニング用のマシン構成を指定する トレーニング クラスタの特定のロールmasterConfigworkerConfigparameterServerConfigevaluatorConfig)に対応する名前の構成を指定します。 構成は汎用リストです。CustomJobSpec.workerPoolSpecs[] でマシン構成を指定します。
Python パッケージを使用してトレーニング ジョブを送信する Python パッケージに関連するフィールドは、TrainingInput の最上位にあります。 Python パッケージに関連するフィールドは、pythonPackageSpec 内で編成されます。
マシンタイプを指定する
ハイパーパラメータ調整ジョブを送信する hyperparameters 構成でトレーニング ジョブを送信します。トレーニング ジョブがハイパーパラメータ調整を送信するかどうかにかかわらず、TrainingJob API リソースが作成されます。 studySpec 構成でハイパーパラメータ調整ジョブを送信します。これにより、最上位の API リソース(HyperparameterTuningJob)が作成されます。ハイパーパラメータ調整なしで送信されたカスタム トレーニング ジョブは、最上位の CustomJob API リソースを作成します。
トレーニング パイプラインを作成して、他のオペレーションでトレーニング ジョブをオーケストレートする オーケストレーション用の組み込み API リソースはありません。AI Platform Pipelines、Kubeflow、または別のオーケストレーション ツールを使用します。 モデルのデプロイでトレーニング ジョブをオーケストレートするには、TrainingPipeline リソースを作成します。

予測

タスク AI Platform の予測 Vertex AI
使用する機械学習フレームワークのバージョンを選択する Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。
ランタイム バージョン - モデルをデプロイする際に、必要なフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 ビルド済みコンテナ - モデルをデプロイするときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。リージョン エンドポイントに一致するマルチリージョン オプションを使用します(たとえば、us-central1 エンドポイントの場合は us-docker.pkg.dev)。
予測でカスタムコードを実行する カスタム予測ルーチンを使用します。 Vertex AI でカスタム予測ルーチンを使用します。
使用する Google Cloud リージョンを設定する グローバル API エンドポイント(ml.googleapis.com)でモデルを作成する際に、リージョンの名前を指定します。 us-central1-aiplatform.googleapis.com などのリージョン エンドポイントにモデルを作成します。 グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。
モデルのアーティファクトを格納する モデル アーティファクトは Cloud Storage 内に保存されます。モデル アーティファクトに関連付けられた API リソースはありません。 モデル アーティファクト用のマネージド モデル ストレージを利用でき、Model リソースに関連付けられます。
Vertex AI マネージド データセットを使用しなくても、Cloud Storage に保存されているモデルを引き続きデプロイできます。
モデルのデプロイ オンライン予測で使用可能にするために、モデルを直接デプロイします。 オンライン予測で使用するリソースを提供するための Endpoint オブジェクトを作成します。作成したエンドポイントにモデルをデプロイします。予測をリクエストするには、predict() メソッドを呼び出します。
バッチ予測リクエスト バッチ予測は、Cloud Storage に保存されているモデルに対してリクエストでき、そのリクエストには、ランタイム バージョンを指定できます。または、デプロイされたモデルに対してバッチ予測をリクエストし、モデルのデプロイ時に、指定したランタイム バージョンを使用することもできます。 モデルは、Vertex AI にアップロードし、予測を行うビルド済みコンテナまたはカスタム コンテナを指定します。
オンライン予測リクエスト JSON 構造にはインスタンスのリストが含まれます。 JSON 構造には、インスタンスのリストとパラメータのフィールドが含まれています。
マシンタイプを指定する バージョンの作成時に、使用可能なマシンタイプを指定します。 AI Platform(MLS1)の以前のオンライン予測マシンタイプはサポートされていません。利用できるのは、Compute Engine マシンタイプだけです。
モデルをデプロイする モデルリソースを作成し、バージョン リソースを作成します。 モデルリソースを作成し、エンドポイント リソースを作成して、エンドポイントにモデルをデプロイします。エンドポイントでトラフィック分割を指定します。

Vertex Explainable AI

表形式モデルと画像モデルの特徴アトリビューションは、AI Platform の AI Explanations と Vertex Explainable AI の両方で取得できます。

タスク AI Platform の AI Explanations Vertex Explainable AI
表形式モデルの特徴アトリビューションの取得 サンプリングされた Shapley または統合勾配を使用して、表形式モデルの特徴アトリビューションを取得します。
画像モデルの特徴アトリビューションの取得 統合勾配または XRAI を使用して、画像モデルの特徴アトリビューションを取得します。