Vertex AI では、AI Platform と AutoML が 1 つのインターフェースに統合されています。このページでは、AI Platform に慣れているユーザーを対象に、Vertex AI と AI Platform の違いについて説明します。
カスタム トレーニング
Vertex AI では、AutoML でモデルをトレーニングできます。また、カスタム トレーニングも可能です。このワークフローは、AI Platform Training に似ています。
タスク | AI Platform Training | Vertex AI |
---|---|---|
使用する機械学習フレームワークのバージョンを選択する | Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。 | |
ランタイム バージョン - トレーニング ジョブを送信するときに、目的のフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 | ビルド済みコンテナ - カスタム トレーニング ジョブを送信するときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。 | |
カスタム コンテナを使用してトレーニング ジョブを送信する | 独自のカスタム コンテナをビルドして、Artifact Registry にホストし、それを使用してトレーニング アプリを実行します。 | |
使用する Google Cloud リージョンを設定する | トレーニング ジョブをグローバル エンドポイント(ml.googleapis.com )に送信するときに、リージョンの名前を指定します。 |
カスタム トレーニング ジョブをリージョン エンドポイント(us-central1-aiplatform.googleapis.com など)に送信します。グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。 |
分散トレーニング用のマシン構成を指定する | トレーニング クラスタの特定のロール(masterConfig 、workerConfig 、parameterServerConfig 、evaluatorConfig )に対応する名前の構成を指定します。 |
構成は汎用リストです。CustomJobSpec.workerPoolSpecs[] でマシン構成を指定します。 |
Python パッケージを使用してトレーニング ジョブを送信する | Python パッケージに関連するフィールドは、TrainingInput の最上位にあります。 |
Python パッケージに関連するフィールドは、pythonPackageSpec 内で編成されます。 |
マシンタイプを指定する |
|
|
ハイパーパラメータ調整ジョブを送信する |
hyperparameters 構成でトレーニング ジョブを送信します。トレーニング ジョブがハイパーパラメータ調整を送信するかどうかにかかわらず、TrainingJob API リソースが作成されます。 |
studySpec 構成でハイパーパラメータ調整ジョブを送信します。これにより、最上位の API リソース(HyperparameterTuningJob )が作成されます。ハイパーパラメータ調整なしで送信されたカスタム トレーニング ジョブは、最上位の CustomJob API リソースを作成します。 |
トレーニング パイプラインを作成して、他のオペレーションでトレーニング ジョブをオーケストレートする | オーケストレーション用の組み込み API リソースはありません。AI Platform Pipelines、Kubeflow、または別のオーケストレーション ツールを使用します。 | モデルのデプロイでトレーニング ジョブをオーケストレートするには、TrainingPipeline リソースを作成します。 |
予測
タスク | AI Platform の予測 | Vertex AI |
---|---|---|
使用する機械学習フレームワークのバージョンを選択する | Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。 | |
ランタイム バージョン - モデルをデプロイする際に、必要なフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 | ビルド済みコンテナ - モデルをデプロイするときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。リージョン エンドポイントに一致するマルチリージョン オプションを使用します(たとえば、us-central1 エンドポイントの場合は us-docker.pkg.dev )。 |
|
予測でカスタムコードを実行する | カスタム予測ルーチンを使用します。 | Vertex AI でカスタム予測ルーチンを使用します。 |
使用する Google Cloud リージョンを設定する | グローバル API エンドポイント(ml.googleapis.com )でモデルを作成する際に、リージョンの名前を指定します。 |
us-central1-aiplatform.googleapis.com などのリージョン エンドポイントにモデルを作成します。グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。 |
モデルのアーティファクトを格納する | モデル アーティファクトは Cloud Storage 内に保存されます。モデル アーティファクトに関連付けられた API リソースはありません。 | モデル アーティファクト用のマネージド モデル ストレージを利用でき、Model リソースに関連付けられます。Vertex AI マネージド データセットを使用しなくても、Cloud Storage に保存されているモデルを引き続きデプロイできます。 |
モデルのデプロイ | オンライン予測で使用可能にするために、モデルを直接デプロイします。 |
オンライン予測で使用するリソースを提供するための Endpoint オブジェクトを作成します。作成したエンドポイントにモデルをデプロイします。予測をリクエストするには、predict() メソッドを呼び出します。 |
バッチ予測リクエスト | バッチ予測は、Cloud Storage に保存されているモデルに対してリクエストでき、そのリクエストには、ランタイム バージョンを指定できます。または、デプロイされたモデルに対してバッチ予測をリクエストし、モデルのデプロイ時に、指定したランタイム バージョンを使用するこ |