AI Platform ユーザー用の Vertex AI

Vertex AI では、AI Platform と AutoML が 1 つのインターフェースに統合されています。このページでは、AI Platform に慣れているユーザーを対象に、Vertex AI と AI Platform の違いについて説明します。

カスタム トレーニング

Vertex AI では、AutoML でモデルをトレーニングできます。また、カスタム トレーニングも可能です。このワークフローは、AI Platform Training に似ています。

タスク AI Platform Training Vertex AI
使用する機械学習フレームワークのバージョンを選択する Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。
ランタイム バージョン - トレーニング ジョブを送信するときに、目的のフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 ビルド済みコンテナ - カスタム トレーニング ジョブを送信するときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。
カスタム コンテナを使用してトレーニング ジョブを送信する 独自のカスタム コンテナをビルドして、Artifact Registry にホストし、それを使用してトレーニング アプリを実行します。
使用する Google Cloud リージョンを設定する トレーニング ジョブをグローバル エンドポイント(ml.googleapis.com)に送信するときに、リージョンの名前を指定します。 カスタム トレーニング ジョブをリージョン エンドポイント(us-central1-aiplatform.googleapis.com など)に送信します。グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。
分散トレーニング用のマシン構成を指定する トレーニング クラスタの特定のロールmasterConfigworkerConfigparameterServerConfigevaluatorConfig)に対応する名前の構成を指定します。 構成は汎用リストです。CustomJobSpec.workerPoolSpecs[] でマシン構成を指定します。
Python パッケージを使用してトレーニング ジョブを送信する Python パッケージに関連するフィールドは、TrainingInput の最上位にあります。 Python パッケージに関連するフィールドは、pythonPackageSpec 内で編成されます。
マシンタイプを指定する
ハイパーパラメータ調整ジョブを送信する hyperparameters 構成でトレーニング ジョブを送信します。トレーニング ジョブがハイパーパラメータ調整を送信するかどうかにかかわらず、TrainingJob API リソースが作成されます。 studySpec 構成でハイパーパラメータ調整ジョブを送信します。これにより、最上位の API リソース(HyperparameterTuningJob)が作成されます。ハイパーパラメータ調整なしで送信されたカスタム トレーニング ジョブは、最上位の CustomJob API リソースを作成します。
トレーニング パイプラインを作成して、他のオペレーションでトレーニング ジョブをオーケストレートする オーケストレーション用の組み込み API リソースはありません。AI Platform Pipelines、Kubeflow、または別のオーケストレーション ツールを使用します。 モデルのデプロイでトレーニング ジョブをオーケストレートするには、TrainingPipeline リソースを作成します。

予測

タスク AI Platform の予測 Vertex AI
使用する機械学習フレームワークのバージョンを選択する Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。
ランタイム バージョン - モデルをデプロイする際に、必要なフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 ビルド済みコンテナ - モデルをデプロイするときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。リージョン エンドポイントに一致するマルチリージョン オプションを使用します(たとえば、us-central1 エンドポイントの場合は us-docker.pkg.dev)。
予測でカスタムコードを実行する カスタム予測ルーチンを使用します。 Vertex AI でカスタム予測ルーチンを使用します。
使用する Google Cloud リージョンを設定する グローバル API エンドポイント(ml.googleapis.com)でモデルを作成する際に、リージョンの名前を指定します。 us-central1-aiplatform.googleapis.com などのリージョン エンドポイントにモデルを作成します。グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。
モデルのアーティファクトを格納する モデル アーティファクトは Cloud Storage 内に保存されます。モデル アーティファクトに関連付けられた API リソースはありません。 モデル アーティファクト用のマネージド モデル ストレージを利用でき、Model リソースに関連付けられます。
Vertex AI マネージド データセットを使用しなくても、Cloud Storage に保存されているモデルを引き続きデプロイできます。
モデルのデプロイ オンライン予測で使用可能にするために、モデルを直接デプロイします。 オンライン予測で使用するリソースを提供するための Endpoint オブジェクトを作成します。作成したエンドポイントにモデルをデプロイします。予測をリクエストするには、predict() メソッドを呼び出します。
バッチ予測リクエスト バッチ予測は、Cloud Storage に保存されているモデルに対してリクエストでき、そのリクエストには、ランタイム バージョンを指定できます。または、デプロイされたモデルに対してバッチ予測をリクエストし、モデルのデプロイ時に、指定したランタイム バージョンを使用するこ