Vertex AI では、AI Platform と AutoML が 1 つのインターフェースに統合されています。このページでは、AI Platform に慣れているユーザーを対象に、Vertex AI と AI Platform の違いについて説明します。
カスタム トレーニング
Vertex AI では、AutoML でモデルをトレーニングできます。また、カスタム トレーニングも可能です。このワークフローは、AI Platform Training に似ています。
タスク | AI Platform Training | Vertex AI |
---|---|---|
使用する機械学習フレームワークのバージョンを選択する | Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。 | |
ランタイム バージョン - トレーニング ジョブを送信するときに、目的のフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 | ビルド済みコンテナ - カスタム トレーニング ジョブを送信するときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。 | |
カスタム コンテナを使用してトレーニング ジョブを送信する | 独自のカスタム コンテナをビルドして、Artifact Registry にホストし、それを使用してトレーニング アプリを実行します。 | |
使用する Google Cloud リージョンを設定する | トレーニング ジョブをグローバル エンドポイント(ml.googleapis.com )に送信するときに、リージョンの名前を指定します。 |
カスタム トレーニング ジョブをリージョン エンドポイント(us-central1-aiplatform.googleapis.com など)に送信します。
グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。 |
分散トレーニング用のマシン構成を指定する | トレーニング クラスタの特定のロール(masterConfig 、workerConfig 、parameterServerConfig 、evaluatorConfig )に対応する名前の構成を指定します。 |
構成は汎用リストです。CustomJobSpec.workerPoolSpecs[] でマシン構成を指定します。 |
Python パッケージを使用してトレーニング ジョブを送信する | Python パッケージに関連するフィールドは、TrainingInput の最上位にあります。 |
Python パッケージに関連するフィールドは、pythonPackageSpec 内で編成されます。 |
マシンタイプを指定する |
|
|
ハイパーパラメータ調整ジョブを送信する |
hyperparameters 構成でトレーニング ジョブを送信します。トレーニング ジョブがハイパーパラメータ調整を送信するかどうかにかかわらず、TrainingJob API リソースが作成されます。 |
studySpec 構成でハイパーパラメータ調整ジョブを送信します。これにより、最上位の API リソース(HyperparameterTuningJob )が作成されます。ハイパーパラメータ調整なしで送信されたカスタム トレーニング ジョブは、最上位の CustomJob API リソースを作成します。 |
トレーニング パイプラインを作成して、他のオペレーションでトレーニング ジョブをオーケストレートする | オーケストレーション用の組み込み API リソースはありません。AI Platform Pipelines、Kubeflow、または別のオーケストレーション ツールを使用します。 | モデルのデプロイでトレーニング ジョブをオーケストレートするには、TrainingPipeline リソースを作成します。 |
予測
タスク | AI Platform の予測 | Vertex AI |
---|---|---|
使用する機械学習フレームワークのバージョンを選択する | Google Cloud Console では、フレームワーク名とフレームワーク バージョンを設定します。 | |
ランタイム バージョン - モデルをデプロイする際に、必要なフレームワークとフレームワーク バージョンを含むランタイム バージョンの数を指定します。 | ビルド済みコンテナ - モデルをデプロイするときに、フレームワークとフレームワーク バージョンに対応するビルド済みコンテナの Artifact Registry URI を指定します。リージョン エンドポイントに一致するマルチリージョン オプションを使用します(たとえば、us-central1 エンドポイントの場合は us-docker.pkg.dev )。 |
|
予測でカスタムコードを実行する | カスタム予測ルーチンを使用します。 | Vertex AI でカスタム予測ルーチンを使用します。 |
使用する Google Cloud リージョンを設定する | グローバル API エンドポイント(ml.googleapis.com )でモデルを作成する際に、リージョンの名前を指定します。 |
us-central1-aiplatform.googleapis.com などのリージョン エンドポイントにモデルを作成します。
グローバル エンドポイントはありません。AI Platform で利用可能な一部のリージョンは、Vertex AI で使用できません。[ロケーション] ページでサポート対象リージョンの一覧をご覧ください。 |
モデルのアーティファクトを格納する | モデル アーティファクトは Cloud Storage 内に保存されます。モデル アーティファクトに関連付けられた API リソースはありません。 | モデル アーティファクト用のマネージド モデル ストレージを利用でき、Model リソースに関連付けられます。Vertex AI マネージド データセットを使用しなくても、Cloud Storage に保存されているモデルを引き続きデプロイできます。 |
モデルのデプロイ | オンライン予測で使用可能にするために、モデルを直接デプロイします。 |
オンライン予測で使用するリソースを提供するための Endpoint オブジェクトを作成します。作成したエンドポイントにモデルをデプロイします。予測をリクエストするには、predict() メソッドを呼び出します。 |
バッチ予測リクエスト | バッチ予測は、Cloud Storage に保存されているモデルに対してリクエストでき、そのリクエストには、ランタイム バージョンを指定できます。または、デプロイされたモデルに対してバッチ予測をリクエストし、モデルのデプロイ時に、指定したランタイム バージョンを使用することもできます。 | モデルは、Vertex AI にアップロードし、予測を行うビルド済みコンテナまたはカスタム コンテナを指定します。 |
オンライン予測リクエスト | JSON 構造にはインスタンスのリストが含まれます。 | JSON 構造には、インスタンスのリストとパラメータのフィールドが含まれています。 |
マシンタイプを指定する | バージョンの作成時に、使用可能なマシンタイプを指定します。 | AI Platform(MLS1)の以前のオンライン予測マシンタイプはサポートされていません。利用できるのは、Compute Engine マシンタイプだけです。 |
モデルをデプロイする | モデルリソースを作成し、バージョン リソースを作成します。 | モデルリソースを作成し、エンドポイント リソースを作成して、エンドポイントにモデルをデプロイします。エンドポイントでトラフィック分割を指定します。 |
Vertex Explainable AI
表形式モデルと画像モデルの特徴アトリビューションは、AI Platform の AI Explanations と Vertex Explainable AI の両方で取得できます。
タスク | AI Platform の AI Explanations | Vertex Explainable AI |
---|---|---|
表形式モデルの特徴アトリビューションの取得 | サンプリングされた Shapley または統合勾配を使用して、表形式モデルの特徴アトリビューションを取得します。 | |
画像モデルの特徴アトリビューションの取得 | 統合勾配または XRAI を使用して、画像モデルの特徴アトリビューションを取得します。 |