AutoML Vision Edge モデルを作成して Google Cloud Storage バケットにエクスポートすると、RESTful サービスで AutoML Vision Edge モデルと TF Serving Docker イメージを使用できるようになります。
作業内容
Docker コンテナで、Edge モデルをさまざまなデバイスに簡単にデプロイできるようになります。コンテナから任意の言語で REST API を呼び出し、Edge モデルを実行できます。依存関係をインストールする必要もなく、適切な TensorFlow バージョンを探す必要もありません。
このチュートリアルでは、Docker コンテナを使用して Edge モデルをデバイス上で実行する手順を詳しく説明します。
このチュートリアルでは特に、次の 3 つの手順について説明します。
- ビルド済みのコンテナを取得する。
- Edge モデルを含むコンテナを実行し、REST API を開始する。
- 予測を作成する。
多くのデバイスには CPU しかありませんが、一部のデバイスでは GPU を使用して予測を高速化できます。ここでは、事前にビルドされた CPU と GPU コンテナの両方を使用する場合について説明します。
目標
このチュートリアルでは、コードを使用して次の作業を行います。
- Docker コンテナを取得する。
- Edge モデルを含む Docker コンテナを使用して REST API を起動する。
- 予測を行い分析結果を取得する。
始める前に
このチュートリアルを完了するには、次のことが必要です。
- エクスポート可能な Edge モデルをトレーニングします。Edge デバイスモデル クイックスタートに沿って Edge モデルをトレーニングします。
- AutoML Vision Edge モデルをエクスポートします。このモデルは、REST API としてコンテナとともに提供されます。
- Docker をインストールします。これは、Docker コンテナを実行するために必要なソフトウェアです。
- (省略可)NVIDIA Docker とドライバをインストールします。これは任意のステップです。GPU を搭載したデバイスで予測を高速化できます。
- テスト画像を準備します。これらの画像は、分析結果を取得するためのリクエストで送信されます。
以下では、モデルのエクスポートと必要なソフトウェアのインストールについて詳しく説明します。
AutoML Vision Edge モデルをエクスポートする
Edge モデルをトレーニングしたら、別のデバイスにエクスポートできるようになります。
コンテナは、エクスポート時に saved_model.pb
という名前の TensorFlow モデルをサポートします。
コンテナの AutoML Vision Edge モデルをエクスポートするには、UI の [コンテナ] タブを選択し、モデルを Google Cloud Storage の ${YOUR_MODEL_PATH} にエクスポートします。このエクスポートされたモデルは、後で REST API としてコンテナとともに提供されます。
エクスポートしたモデルをローカルでダウンロードするには、次のコマンドを実行します。
ここで
- ${YOUR_MODEL_PATH} - Google Cloud Storage 上のモデルの場所(たとえば、
gs://my-bucket-vcm/models/edge/ICN4245971651915048908/2020-01-20_01-27-14-064_tf-saved-model/
)です。 - ${YOUR_LOCAL_MODEL_PATH} - モデルをダウンロードするローカルパス(たとえば、
/tmp
)です。
gcloud storage cp ${YOUR_MODEL_PATH} ${YOUR_LOCAL_MODEL_PATH}/saved_model.pb
Docker のインストール
Docker は、コンテナ内でアプリケーションのデプロイと実行に使用するソフトウェアです。
Docker Community Edition(CE)をシステムにインストールします。これを使用して Edge モデルを REST API として提供します。
NVIDIA Driver と NVIDIA DOCKER のインストール(省略可 - GPU のみ)
一部のデバイスでは GPU を使用して予測を高速化できます。GPU Docker コンテナは NVIDIA GPU に対応しています。
GPU コンテナを実行するには、NVIDIA ドライバと NVIDIA Docker をシステムにインストールする必要があります。
CPU を使用してモデル推定を実行する
このセクションでは、CPU コンテナを使用してモデル推定を実行する手順を説明します。インストールされた Docker を使用して CPU コンテナを取得し、実行します。エクスポートされた Edge モデルを REST API として提供し、テストイメージのリクエストを REST API に送信して解析結果を取得します。
Docker イメージを pull する
まず Docker を使用して、ビルド済みの CPU コンテナを取得します。ビルド済みの CPU コンテナには、エクスポートされた Edge モデルを提供する環境が用意されていますが、Edge モデルは含まれてはいません。
ビルド済みの CPU コンテナは、Google Container Registry に格納されます。コンテナをリクエストする前に、Google Container Registry でコンテナの場所の環境変数を設定します。
export CPU_DOCKER_GCS_PATH=gcr.io/cloud-devrel-public-resources/gcloud-container-1.14.0:latest
Container Registry パスの環境変数を設定したら、次のコマンドラインを実行して CPU コンテナを取得します。
sudo docker pull ${CPU_DOCKER_GCS_PATH}
Docker コンテナを実行する
既存のコンテナを取得したら、この CPU コンテナを実行して REST API で Edge モデル推定を実行します。
CPU コンテナを開始する前に、システム変数を設定する必要があります。
- ${CONTAINER_NAME} - 実行時のコンテナ名を示す文字列です。たとえば、
CONTAINER_NAME=automl_high_accuracy_model_cpu
。 - ${PORT} - デバイスで REST API 呼び出しを受け入れるポートを示す数値です。たとえば、
PORT=8501
。
変数を設定したら、Docker をコマンドラインで実行し、REST API で Edge モデル推定を行います。
sudo docker run --rm --name ${CONTAINER_NAME} -p ${PORT}:8501 -v ${YOUR_MODEL_PATH}:/tmp/mounted_model/0001 -t ${CPU_DOCKER_GCS_PATH}
コンテナが正常に実行されると、REST API は http://localhost:${PORT}/v1/models/default:predict
で提供できるようになります。次のセクションでは、予測リクエストをこの場所に送信する方法を詳しく説明します。
予測リクエストを送信する
コンテナが正常に実行されたので、テスト画像の予測リクエストを REST API に送信できます。
コマンドライン
コマンドライン リクエストの本文には、Base64 でエンコードされた image_bytes
と文字列 key
が含まれています。これらは特定の画像を表します。画像エンコードの詳細については、Base64 エンコードをご覧ください。リクエスト JSON ファイルの形式は次のとおりです。
/tmp/request.json
{ "instances": [ { "image_bytes": { "b64": "/9j/7QBEUGhvdG9zaG9...base64-encoded-image-content...fXNWzvDEeYxxxzj/Coa6Bax//Z" }, "key": "your-chosen-image-key" } ] }
ローカルの JSON リクエスト ファイルを作成したら、予測リクエストを送信できます。
予測リクエストを送信するには、次のコマンドを使用します。
curl -X POST -d @/tmp/request.json http://localhost:${PORT}/v1/models/default:predictレスポンス
出力は次のようになります。
Python
AutoML Vision Object Detection のクライアント ライブラリをインストールして使用する方法については、AutoML Vision Object Detection クライアント ライブラリをご覧ください。 詳細については、AutoML Vision Object Detection Python API のリファレンス ドキュメントをご覧ください。
AutoML Vision Object Detection に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
GPU コンテナを使用したモデル推定の実行(省略可)
このセクションでは、GPU コンテナを使用してモデル推定を実行する方法について説明します。このプロセスは、CPU を使用したモデル推定の実行と非常によく似ています。主な違いは、GPU コンテナパスと GPU コンテナの起動方法です。
Docker イメージを pull する
まず Docker を使用して、ビルド済みの GPU コンテナを取得します。ビルド済みの GPU コンテナには、GPU を備えたエクスポートされた Edge モデルを提供する環境が用意されていますが、Edge モデルやドライバは含まれてはいません。
ビルド済みの CPU コンテナは、Google Container Registry に格納されます。コンテナをリクエストする前に、Google Container Registry でコンテナの場所の環境変数を設定します。
export GPU_DOCKER_GCS_PATH=gcr.io/cloud-devrel-public-resources/gcloud-container-1.14.0-gpu:latest
以下のコマンドラインを実行して、GPU コンテナを取得します。
sudo docker pull ${GPU_DOCKER_GCS_PATH}
Docker コンテナを実行する
このステップでは、GPU コンテナを実行して REST API で Edge モデル推定を行います。前述の NVIDIA ドライバと Docker をインストールする必要があります。また、次のシステム変数も設定する必要があります。
- ${CONTAINER_NAME} - 実行時のコンテナ名を示す文字列です。たとえば、
CONTAINER_NAME=automl_high_accuracy_model_gpu
。 - ${PORT} - デバイスで REST API 呼び出しを受け入れるポートを示す数値です。たとえば、
PORT=8502
。
変数を設定したら、Docker をコマンドラインで実行し、REST API で Edge モデル推定を行います。
sudo docker run --runtime=nvidia --rm --name "${CONTAINER_NAME}" -v \ ${YOUR_MODEL_PATH}:/tmp/mounted_model/0001 -p \ ${PORT}:8501 -t ${GPU_DOCKER_GCS_PATH}
コンテナが正常に実行されると、REST API は http://localhost:${PORT}/v1/models/default:predict
で提供できるようになります。次のセクションでは、予測リクエストをこの場所に送信する方法を詳しく説明します。
予測リクエストを送信する
コンテナが正常に実行されたので、テスト画像の予測リクエストを REST API に送信できます。
コマンドライン
コマンドライン リクエストの本文には、Base64 でエンコードされた image_bytes
と文字列 key
が含まれています。これらは特定の画像を表します。画像エンコードの詳細については、Base64 エンコードをご覧ください。リクエスト JSON ファイルの形式は次のとおりです。
/tmp/request.json
{ "instances": [ { "image_bytes": { "b64": "/9j/7QBEUGhvdG9zaG9...base64-encoded-image-content...fXNWzvDEeYxxxzj/Coa6Bax//Z" }, "key": "your-chosen-image-key" } ] }
ローカルの JSON リクエスト ファイルを作成したら、予測リクエストを送信できます。
予測リクエストを送信するには、次のコマンドを使用します。
curl -X POST -d @/tmp/request.json http://localhost:${PORT}/v1/models/default:predictレスポンス
出力は次のようになります。
Python
AutoML Vision Object Detection のクライアント ライブラリをインストールして使用する方法については、AutoML Vision Object Detection クライアント ライブラリをご覧ください。 詳細については、AutoML Vision Object Detection Python API のリファレンス ドキュメントをご覧ください。
AutoML Vision Object Detection に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証の設定をご覧ください。
概要
このチュートリアルでは、CPU および GPU Docker コンテナを使用して Edge モデルを実行しました。これで、このコンテナベースのソリューションを他のデバイスにデプロイできるようになりました。
次のステップ
- TensorFlow のスタートガイド ドキュメントで、TensorFlow の概要を学習する。
- Tensorflow Serving について詳しく学習する。
- TensorFlow Serving with Kubernetes の使用方法を学習する。