このページでは、Vertex AI の TensorFlow インテグレーションについて説明します。また、Vertex AI で TensorFlow を使用する方法を示すリソースについて紹介します。Vertex AI の TensorFlow 統合を使用すると、本番環境での TensorFlow モデルのトレーニング、デプロイ、オーケストレーションが容易になります。
ノートブックでコードを実行する
Vertex AI には、ノートブックでコードを実行するために、Colab Enterprise と Vertex AI Workbench の 2 つのオプションがあります。これらのオプションの詳細については、ノートブック ソリューションを選択するをご覧ください。
トレーニング用のビルド済みコンテナ
Vertex AI には、モデル トレーニング用にビルド済みの Docker コンテナ イメージが用意されています。これらのコンテナは ML フレームワークとフレームワーク バージョン別に編成され、トレーニング コードで必要となる一般的な依存関係が含まれています。
ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。
分散トレーニング
Vertex AI では、TensorFlow モデルの分散トレーニングを実行できます。マルチワーカー トレーニングの場合、Reduction Server を使用して、all-reduce グループ演算に合わせてパフォーマンスをさらに最適化できます。Vertex AI での分散トレーニングの詳細については、分散トレーニングをご覧ください。
予測用のビルド済みコンテナ
トレーニング用のビルド済みコンテナと同様に、Vertex AI では、Vertex AI 内外で作成した TensorFlow モデルから予測と説明を提供するためのビルド済みコンテナ イメージが用意されています。これらのイメージは、最小限の構成で予測を行うために使用できる HTTP 予測サーバーを提供します。
ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。
最適化された TensorFlow ランタイム
最適化された TensorFlow ランタイムは、モデルの最適化と新しい独自の Google テクノロジーを使用して、TensorFlow 用の Vertex AI の標準のビルド済み予測コンテナと比較して、予測速度を向上させ、コストを削減します。
TensorFlow Profiler インテグレーション
Vertex AI の TensorFlow Profiler インテグレーションを使用してトレーニング ジョブのパフォーマンスをモニタリングして最適化することで、コストを抑えながらモデルのトレーニングを迅速に行うことができます。TensorFlow Profiler を使用すると、トレーニング オペレーションのリソース消費量を把握し、パフォーマンスのボトルネックを特定して排除できます。
Vertex AI TensorFlow Profiler の詳細については、Profiler を使用してモデルのトレーニング パフォーマンスをプロファイリングするをご覧ください。
Vertex AI で TensorFlow を使用するためのリソース
Vertex AI での TensorFlow の詳細と使用方法については、次のリソースをご覧ください。
プロトタイプから本番環境へ: Vertex AI でカスタム TensorFlow モデルを開発してデプロイするエンドツーエンドの例を示す動画シリーズ。
Vertex AI で Reduction Server を使用してトレーニング パフォーマンスを最適化する: Reduction Server を使用して Vertex AI の分散トレーニングを最適化する方法に関するブログ投稿。
Vertex AI で TensorFlow Profiler を使用してトレーニングのパフォーマンスを最適化する方法: Vertex AI TensorFlow Profiler を使用して、トレーニング ジョブのパフォーマンスのボトルネックを特定する方法を説明するブログ投稿。
特徴フィルタリングを使用したカスタムモデル バッチ予測: Vertex AI SDK for Python を使用してカスタム表形式分類モデルをトレーニングし、機能フィルタリングでバッチ予測を実行する方法を示すノートブックのチュートリアル。
Vertex AI Pipelines: ビルド済みの Google Cloud パイプライン コンポーネントを使用したカスタム トレーニング: カスタム トレーニング用に、ビルド済みの Google Cloud パイプライン コンポーネントで Vertex AI Pipelines を使用する方法を紹介するノートブック チュートリアル。
予測用に同じ VM 上で TensorFlow モデルを共同ホストする: Vertex AI で共同ホスティング モデル機能を使用して、オンライン予測のために同じ VM 上に複数のモデルをホストする方法を示す Codelab。