Vertex AI の概要

Vertex AI は、統一された API、クライアント ライブラリ、ユーザー インターフェースに AutoML と AI Platform を統合します。AutoML を使用すると、コードを記述することなく、画像、表形式、テキスト、動画のデータセットに対してモデルをトレーニングできます。一方、AI Platform でのトレーニングでは、カスタムのトレーニング コードを実行できます。Vertex AI を使用すると、AutoML トレーニングとカスタム トレーニングの両方を利用できます。トレーニングにどちらの方法を選択しても、Vertex AI を使用して、モデルの保存、モデルのデプロイ、予測のリクエストを行えます。

Vertex AI が ML ワークフローに適合する場所

Vertex AI は、ML ワークフローの次の工程の管理に使用できます。

  • データセットを作成してデータをアップロードする。

  • データで ML モデルをトレーニングする。

    • モデルのトレーニング
    • モデルの精度の評価
    • ハイパーパラメータの調整(カスタム トレーニングのみ)
  • モデルをアップロードして Vertex AI に保存する。

  • 予測を行うエンドポイントに、トレーニング済みのモデルをデプロイする。

  • 予測リクエストをエンドポイントに送信する。

  • エンドポイントで予測のトラフィック分割を指定する。

  • モデルとエンドポイントを管理する。

Vertex AI のコンポーネント

このセクションでは、Vertex AI を構成する要素を挙げ、それぞれの主な目的を説明します。

トレーニング

Vertex AI では、AutoML を使用してモデルをトレーニングできます。また、必要な場合は、AI Platform Training に用意されたより広範なカスタマイズ オプションを利用してカスタム トレーニングを行えます。

カスタム トレーニングでは、さまざまなマシンタイプを選択して、トレーニング ジョブの強化、分散トレーニングの有効化、ハイパーパラメータ調整の利用、GPU による高速化が可能です。

予測のためのモデルのデプロイ

Vertex AI にモデルをデプロイすると、Vertex AI で予測を提供するエンドポイントを取得できます。

モデルは、Vertex AI 上でトレーニングされたかどうかにかかわらず、Vertex AI にデプロイできます。

データラベル付け

データラベル付けジョブを使用すると、カスタム機械学習モデルのトレーニングに使用するデータセットに対し、ヒューマン ラベリングをリクエストできます。リクエストを送信することで、動画、画像、テキストデータにラベル付けできます。

ラベリング リクエストを送信するには、ラベル付きデータの代表的なサンプルを提供します。データセットに使用可能なすべてのラベルを指定して、どのようにラベル付けするかを指示します。人間のラベル付け担当者が指示に従い、ラベリング リクエストが完了すると、機械学習モデルのトレーニングに使用できるアノテーション付きデータセットが得られます。

Feature Store

Feature Store は、組織内で ML 特徴値を取り込み、処理して、共有できるフルマネージド リポジトリです。基盤となるインフラストラクチャはすべて Feature Store によって管理されます。たとえば、ストレージやコンピューティング リソースが提供され、必要に応じて簡単にスケールできます。

Vertex AI とやり取りするためのツール

このセクションでは、Vertex AI とのやり取りに使用するツールについて説明します。

Google Cloud Console

Cloud Console では、クラウドにモデルをデプロイして、データセット、モデル、エンドポイント、ジョブを管理できます。このオプションは、機械学習リソースを使用して作業するためのユーザー インターフェースを提供します。Vertex AI のリソースは Google Cloud の一部として、Cloud Logging や Cloud Monitoring などの便利なツールに接続されています。Cloud Console の使用は、Vertex AI セクションの [ダッシュボード] ページから開始することをおすすめします。

[ダッシュボード] ページに移動

Cloud クライアント ライブラリ

Vertex AI では、Vertex AI API の呼び出しを行うために、いくつかの言語用のクライアント ライブラリが用意されています。そのクライアント ライブラリによって、サポートされている各言語の自然な規則やスタイルが使用され、デベロッパーに快適な利用環境が提供されます。サポートされている言語とそのインストール方法については、クライアント ライブラリのインストールをご覧ください。

また、Google API クライアント ライブラリを使用して、Dart などの他の言語で Vertex AI API にアクセスすることもできます。Google API クライアント ライブラリを使用すると、API が扱うリソースとオブジェクトの代わりになる表現を構築できます。この方法は、HTTP リクエストで直接操作するより容易で、コードも少なくなります。

REST API

Vertex AI の REST API は、RESTful サービスで提供され、ジョブ、モデル、エンドポイントの管理や、Google Cloud でホストされているモデルを使った予測を行います。

Notebooks

Notebooks を使用すると、JupyterLab にあらかじめパッケージ化されている仮想マシン(VM)インスタンスを作成して管理できます。

Notebooks インスタンスには、ディープ ラーニング パッケージ スイート(TensorFlow および PyTorch フレームワークのサポートなど)がプリインストールされています。ニーズに合わせて、CPU のみのインスタンスか GPU 対応のインスタンスを構成できます。

Notebooks インスタンスは、Google Cloud の認証と認可によって保護され、Notebooks インスタンスの URL を使用して利用できます。また、Notebooks インスタンスは、GitHub とも統合されているため、簡単にノートブックと GitHub リポジトリを同期できます。

詳細については、Vertex AI での Notebooks の使用をご覧ください。

Deep Learning VM Image

Deep Learning VM Image は、データ サイエンスと機械学習のタスク用に最適化された仮想マシンイメージのセットです。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。GPU を備えたインスタンスでそのまま使用でき、データ処理タスクを高速化できます。

Deep Learning VM Image は、フレームワークとプロセッサの数多くの組み合わせをサポートするために使用できます。現在、TensorFlow Enterprise、TensorFlow、PyTorch、汎用のハイ パフォーマンス コンピューティングをサポートするイメージがあり、それぞれに CPU のみと GPU 対応のワークフロー バージョンがあります。

使用可能なフレームワークのリストについては、イメージの選択をご覧ください。

詳細については、Vertex AI での Deep Learning VM Image と Deep Learning Containers の使用をご覧ください。

Deep Learning Containers

Deep Learning Containers は、主要なデータ サイエンス フレームワーク、ライブラリ、ツールがプリインストールされた Docker コンテナのセットです。これらのコンテナを使用すると、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。

詳細については、Vertex AI での Deep Learning VM Image と Deep Learning Containers の使用をご覧ください。

次のステップ