派生コンテナの作成

このページでは、利用可能な標準の AI Platform Deep Learning Containers イメージの 1 つに基づいて派生コンテナを作成する方法について説明します。

このガイドの手順を完了するには、Cloud Shell を使用するか、Cloud SDK がインストールされている環境を使用します。

始める前に

始める前に、次の手順が完了していることを確認してください。

  1. ローカル ディープ ラーニング コンテナ スタートガイドの「始める前に」の設定手順を完了します。

  2. Google Cloud プロジェクトの課金が有効になっていることを確認します。

    課金を有効にする方法をご覧ください。

  3. Container Registry API を有効にします。

    API を有効にする

プロセス

派生コンテナを作成するには、次のようなプロセスを使用します。

  1. 初期 Dockerfile を作成して変更コマンドを実行します。

    まず、利用可能ないずれかのイメージタイプを使用して Deep Learning Containers コンテナを作成します。さらに、conda、pip、Jupyter の各コマンドを使用して、必要に応じてコンテナ イメージを変更します。

  2. コンテナ イメージをビルドして push します。

    コンテナ イメージをビルドし、Compute Engine サービス アカウントがアクセスできる場所に push します。

初期 Dockerfile を作成して変更コマンドを実行する

次のコマンドを使用して、Deep Learning Containers イメージタイプを選択し、コンテナ イメージを少し変更します。この例では、最新の TensorFlow イメージから開始し、イメージをカスタム TensorFlow ホイールで変更します。次の例では、Dockerfile と同じ作業ディレクトリに tensorflow.whl というファイルがあることを前提とします。次のコマンドを Dockerfile に書き込みます。

FROM gcr.io/deeplearning-platform-release/tf-gpu:latest
COPY tensorflow.whl /tensorflow.whl # Copy from local file system to container
RUN pip uninstall -y tensorflow && \
    pip install -y /tensorflow.whl

コンテナ イメージをビルドして push する

次のコマンドを使用して、コンテナ イメージをビルドし、Google Compute Engine サービス アカウントからアクセスできる Container Registry に push します。

export PROJECT=$(gcloud config list project --format "value(core.project)")
docker build . -f Dockerfile.example -t "gcr.io/${PROJECT}/tf-custom:latest"
docker push "gcr.io/${PROJECT}/tf-custom:latest"