このチュートリアルでは、Vertex AI Pipelines を使用して、次のタスクを含むエンドツーエンドの ML ワークフローを実行する方法について説明します。
- データをインポートして変換する。
- 変換されたデータを使用して、TFHub の画像分類モデルを微調整する。
- トレーニング済みモデルを Vertex AI Model Registry にインポートする。
- 省略可: Vertex AI Prediction を使用してオンライン サービング用のモデルをデプロイする。
始める前に
プロジェクトを設定するの手順 1 ~ 3 が完了していることを確認します。
隔離された Python 環境を作成し、Vertex AI SDK for Python をインストールします。
Kubeflow Pipelines SDK をインストールします。
python3 -m pip install "kfp<2.0.0" "google-cloud-aiplatform>=1.16.0" --upgrade --quiet
ML モデルのトレーニング パイプラインを実行する
このサンプルコードは、次のことを行います。
- コンポーネント リポジトリから、パイプラインの構成要素として使用されるコンポーネントを読み込みます。
- コンポーネント タスクを作成し、引数を使用してそれらのタスク間でデータを渡すことで、パイプラインを作成します。
- Vertex AI Pipelines で実行するパイプラインを送信します。Vertex AI Pipelines の料金をご確認ください。
次のサンプルコードを開発環境にコピーして実行します。
画像分類
提供されているサンプルコードに関する注意事項:
- Kubeflow パイプラインは Python 関数として定義されます。
- パイプラインのワークフロー ステップは、Kubeflow パイプライン コンポーネントを使用して作成されます。コンポーネントの出力を別のコンポーネントの入力として使用することで、パイプラインのワークフローをグラフとして定義します。たとえば、
preprocess_image_data_op
コンポーネント タスクは、transcode_imagedataset_tfrecord_from_csv_op
コンポーネント タスクのtfrecord_image_data_path
出力に依存します。 - Vertex AI SDK for Python を使用して Vertex AI Pipelines でパイプライン実行を作成します。
パイプラインをモニタリングする
Google Cloud コンソールの Vertex AI セクションで、[パイプライン] ページに移動し、[実行] タブを開きます。
次のステップ
- Vertex AI Pipelines の詳細については、Vertex AI Pipelines の概要をご覧ください。