クラウド中のトレーニング モデルに GPU を使用

クラウド中で、機械学習モデルのトレーニングに Cloud ML を使用する場合は、スケール階層を指定します。トレーニング サービスは、スケール階層を使用して、ジョブのために割り当てる仮想マシンの台数とタイプを決定します。通常は、自分のジョブを実行する VM の固有の設定にアクセスすることはできません。ただし、使用可能な GPU(Graphics Processing Unit)を備えたマシンにはリクエストすることができます。このページでは、モデルの練習のために GPU をリクエストし、使用する方法を説明します。

GPU が有効なマシンへのリクエスト

クラウド中で GPU を使用するには、次のリストに示すように、ジョブを設定する必要があります。

  • スケール階層を CUSTOM に設定する。
  • GPU を割り当てようとするそれぞれの VM に、マシンタイプを standard_gpu に設定する。

それに加えて、ジョブを、GPU がサポートされるリージョンで実行する必要があります。現在サポートされるリージョンは us-central1 のみです。

GPU への ops の割り当て

マシン上の GPU を使用するには、それらを実行するために ops を割り当てる必要があります。この処理は、GPU を TensorFlow によってローカルで使用するのと同じです。TensorFlow トレーナー アプリケーションを適切に変更してください。

次のステップ

フィードバックを送信...

Google Cloud Machine Learning