Vertex AI で Deep Learning VM Image と Deep Learning Containers を使用する

このページでは、Deep Learning VM と Deep Learning Containers の主な機能について説明します。また、これらのプロダクトを Vertex AI でどのように使用するかについても説明します。

Deep Learning VM

概要

Deep Learning VM Image は、データ サイエンスと機械学習のタスク用に最適化された仮想マシンイメージのセットです。すべてのイメージには、主要な ML フレームワークとツールがプリインストールされています。GPU を備えたインスタンスでそのまま使用でき、データ処理タスクを高速化できます。

Deep Learning VM Image は、フレームワークとプロセッサの数多くの組み合わせをサポートするために使用できます。現在、TensorFlow Enterprise、TensorFlow、PyTorch、汎用のハイ パフォーマンス コンピューティングをサポートするイメージがあり、それぞれに CPU のみと GPU 対応のワークフロー バージョンがあります。

使用可能なフレームワークのリストについては、イメージの選択をご覧ください。

詳細については、Deep Learning VM のドキュメントをご覧ください。

Deep Learning VM の使用

Deep Learning VM インスタンスは、Vertex AI の作業の一部で使用できます。たとえば、最適化されたデータ処理機能を利用するために、Deep Learning VM インスタンスで実行するアプリケーションを開発できます。また、Deep Learning VM インスタンスをセルフマネージド分散トレーニング システムの開発環境として使用することもできます。

Deep Learning VM インスタンスは、Google Cloud Console の Deep Learning VM Cloud Marketplace ページで作成できます。

Deep Learning VM Cloud Marketplace ページに移動

Deep Learning Containers

概要

Deep Learning Containers は、主要なデータ サイエンス フレームワーク、ライブラリ、ツールがプリインストールされた Docker コンテナのセットです。これらのコンテナを使用すると、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。

詳細については、Deep Learning Containers のドキュメントをご覧ください。

Deep Learning Containers の使用

Deep Learning Containers インスタンスは、Vertex AI の作業の一部で使用できます。たとえば、Vertex AI で利用可能なビルド済みコンテナは、Deep Learning Containers と統合されています。

Vertex AI モデルをカスタム コンテナベースのアプリケーションとしてビルドすることもできます。これにより、モデルを一貫した環境にデプロイして、必要な場所で実行できます。

カスタム コンテナの作成手順は次のとおりです。

  1. 使用可能なコンテナ イメージのいずれかを選択します。

  2. トレーニング用のカスタム コンテナ予測用のカスタム コンテナの要件など、コンテナの要件については、関連する Vertex AI のドキュメントをご覧ください。

    以下の要件を検討し、それに応じてコンテナを修正できるように準備してください。

  3. Deep Learning Containers ローカル インスタンスを作成し、Vertex AI の要件に合わせてコンテナを変更します。

  4. コンテナを Artifact Registry に push します

次のステップ