Vertex AI の概要

Vertex AI は、統一された API、クライアント ライブラリ、ユーザー インターフェースに AutoML と AI Platform を統合します。AutoML を使用すると、コードを記述することなく、画像、表形式、テキスト、動画のデータセットに対してモデルをトレーニングできます。一方、AI Platform でのトレーニングでは、カスタムのトレーニング コードを実行できます。Vertex AI を使用すると、AutoML トレーニングとカスタム トレーニングの両方を利用できます。トレーニングにどちらの方法を選択しても、Vertex AI を使用して、モデルの保存、モデルのデプロイ、予測のリクエストを行えます。

Vertex AI が ML ワークフローに適合する場所

Vertex AI は、ML ワークフローの次の工程の管理に使用できます。

  • データセットを作成してデータをアップロードする。

  • データで ML モデルをトレーニングする。

    • モデルのトレーニング
    • モデルの精度の評価
    • ハイパーパラメータの調整(カスタム トレーニングのみ)
  • モデルをアップロードして Vertex AI に保存する

  • 予測を行うエンドポイントに、トレーニング済みのモデルをデプロイする。

  • 予測リクエストをエンドポイントに送信する。

  • エンドポイントで予測のトラフィック分割を指定する。

  • モデルとエンドポイントを管理する。

Vertex AI のコンポーネント

このセクションでは、Vertex AI を構成する要素を挙げ、それぞれの主な目的を説明します。

モデルのトレーニング

Vertex AI では、AutoML を使用してモデルをトレーニングできます。また、AI Platform Training よりも広範なカスタマイズ オプションが必要な場合は、カスタム トレーニングを使用します。

カスタム トレーニングでは、さまざまなマシンタイプを選択して、トレーニング ジョブの強化、分散トレーニングの有効化、ハイパーパラメータ調整の利用、GPU による高速化が可能です。

予測のためのモデルのデプロイ

Vertex AI 上でトレーニングしたかどうかにかかわらず、モデルを Vertex AI にデプロイし、Vertex AI で予測を提供するエンドポイントを取得できます。

Vertex AI Data Labeling

データラベル付けジョブを使用すると、カスタム機械学習モデルのトレーニングに使用するデータセットに対し、ヒューマン ラベリングをリクエストできます。リクエストを送信することで、動画、画像、テキストデータにラベル付けできます。

ラベリング リクエストを送信するには、ラベル付きデータの代表的なサンプルを提供します。データセットに使用可能なすべてのラベルを指定して、どのようにラベル付けするかを指示します。人間のラベル付け担当者が指示に従い、ラベリング リクエストが完了すると、機械学習モデルのトレーニングに使用できるアノテーション付きデータセットが得られます。

Vertex AI Feature Store

Vertex AI Feature Store は、組織内で ML 特徴値を取り込み、処理して、共有できるフルマネージド リポジトリです。Vertex AI Feature Store は、基盤となるすべてのインフラストラクチャを管理します。たとえば、ストレージやコンピューティング リソースが提供され、必要に応じて簡単にスケーリングできます。

Vertex AI Workbench

Vertex AI Workbench は、データ サイエンス ワークフロー全体に対応する Jupyter ノートブック ベースの開発環境です。Vertex AI Workbench を使用すると、JupyterLab インターフェースを離れることなく、データへのアクセス、Dataproc クラスタでのデータ処理、モデルのトレーニング、結果の共有などを行うことができます。

Vertex AI とやり取りするためのツール

このセクションでは、Vertex AI とのやり取りに使用するツールについて説明します。

Google Cloud コンソール

Google Cloud コンソールでは、クラウドにモデルをデプロイして、データセット、モデル、エンドポイント、ジョブを管理できます。このオプションは、機械学習リソースを使用して作業するためのユーザー インターフェースを提供します。Vertex AI のリソースは Google Cloud の一部として、Cloud Logging や Cloud Monitoring などの便利なツールに接続されています。Google Cloud コンソールを使用する場合は、[Vertex AI] セクションの [ダッシュボード] ページから開始することをおすすめします。

[ダッシュボード] に移動

Cloud クライアント ライブラリ

Vertex AI では、Vertex AI API の呼び出しを行うために、いくつかの言語用のクライアント ライブラリが用意されています。そのクライアント ライブラリによって、サポートされている各言語の自然な規則やスタイルが使用され、デベロッパーに快適な利用環境が提供されます。サポートされている言語とそのインストール方法については、クライアント ライブラリのインストールをご覧ください。

また、Google API クライアント ライブラリを使用して、Dart などの他の言語で Vertex AI API にアクセスすることもできます。Google API クライアント ライブラリを使用すると、API が扱うリソースとオブジェクトの代わりになる表現を構築できます。この方法は、HTTP リクエストで直接操作するより容易で、コードも少なくなります。

REST API

Vertex AI の REST API は、RESTful サービスで提供され、ジョブ、モデル、エンドポイントの管理や、Google Cloud でホストされているモデルを使った予測を行います。

Deep Learning VM Image

Deep Learning VM Image は、データ サイエンスと機械学習のタスク用に最適化された仮想マシンイメージのセットです。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。GPU を備えたインスタンスでそのまま使用でき、データ処理タスクを高速化できます。

Deep Learning VM Image は、フレームワークとプロセッサの数多くの組み合わせをサポートするために使用できます。現在、TensorFlow Enterprise、TensorFlow、PyTorch、汎用のハイ パフォーマンス コンピューティングをサポートするイメージがあり、それぞれに CPU のみと GPU 対応のワークフロー バージョンがあります。

使用可能なフレームワークのリストについては、イメージの選択をご覧ください。

詳細については、Vertex AI での Deep Learning VM Image と Deep Learning Containers の使用をご覧ください。

Deep Learning Containers

Deep Learning Containers は、主要なデータ サイエンス フレームワーク、ライブラリ、ツールがプリインストールされた Docker コンテナのセットです。これらのコンテナを使用すると、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。

詳細については、Vertex AI での Deep Learning VM Image と Deep Learning Containers の使用をご覧ください。

次のステップ