割り当てポリシー

AI プラットフォームにはリソースの割り当てと使用に制限があり、プロジェクトごとに割り当てが適用されます。具体的なポリシーは、リソースの可用性、ユーザー プロフィール、サービス利用状況の履歴などの要因に応じて異なり、予告なく変更される場合があります。

以下のセクションでは、システムの現在の割り当て制限の概要について説明します。

サービス リクエストの制限

60 秒間に作成できる個別の API リクエスト数には制限があります。それぞれの制限は、以降のセクションで説明するように、特定の 1 つの API または API のグループに適用されます。

プロジェクトのリクエストに設定されている割り当ては、Google Cloud Platform Console の AI プラットフォームの API Manager で確認できます。割り当て制限の横にある編集アイコンをクリックしてから [割り当ての増加を申し込む] をクリックすると、割り当ての増加を申し込むことができます。

ジョブ リクエスト

projects.jobs.create リクエスト(トレーニング ジョブとバッチ予測ジョブの組み合わせ)には、次の制限が適用されます。

期間 制限
60 秒 60

オンライン予測リクエスト

projects.predict リクエストには、次の制限が適用されます。

期間 制限
60 秒 6,000

リソース管理リクエスト

このリストのサポートされているリクエストすべての合計に、次の制限が適用されます。

期間 制限
60 秒 300

上記の delete リクエストとすべてのバージョンの create リクエストは、同時に実行できるリクエストの合計数が 10 件に制限されています。

リソースの割り当て

リクエスト回数の制限に加えて、以下のリソース使用の制限もあります。

  • モデル数の上限: 100。
  • バージョン数の上限: 200。バージョン制限は、プロジェクト内のバージョンの合計数が対象となります。バージョン数はアクティブな各モデル間で必要に応じて分配することができます。

割り当ての増加リクエスト

このページで説明した割り当てはプロジェクトごとに適用されますが、必要に応じて上限を引き上げることもできます。さらに処理能力が必要な場合は、割り当ての増加を申し込むことができます。

  • AI プラットフォームの API Manager に表示される割り当ての増加をリクエストするには、Google Cloud Platform Console を使用します。

    1. 増加する割り当てのセクションを探します。

    2. 割り当て使用状況グラフの下部の割り当て値の横にある鉛筆アイコンをクリックします。

    3. 必要な増加量を入力します。

      • 必要な割り当て量が割り当て制限ダイアログに表示された範囲内であれば、新しい値を入力して [保存] をクリックします。

      • 表示された最大値を超えて割り当てを増加する場合には、[割り当ての増加を申し込む] をクリックし、リクエスト方法の手順に沿って増加をリクエストします。

  • Google Cloud Platform Console に表示されていない割り当てを増やす場合、表示されている最大値よりも大きい割り当てを希望する場合、デフォルトの上限 250 MB を超えるモデルをデプロイする必要がある場合は、カスタム リクエスト フォームを使用します。

    1. AI プラットフォーム割り当てリクエスト フォームを開きます。割り当て増加のダイアログ ボックスにある [割り当ての増加を申し込む] リンクを使用することもできます。

    2. これまでの状況の説明、割り当ての増加が必要な理由など、必須項目を入力します。

    3. [送信] をクリックします。リクエストに対する返信メールが届きます。

仮想マシンの同時使用の制限

プロジェクトの GCP 処理リソースの使用量は、トレーニングに使用される仮想マシンの数と、バッチ予測に使用されるノードの数によって測定されます。このセクションでは、プロジェクト全体でこれらのリソースを同時に使用する場合の制限について説明します。

バッチ予測でのノードの同時使用の制限

一般的なプロジェクトで AI プラットフォームを初めて使用する場合、バッチ予測で同時に使用できるノードの数は次のように制限されています。

  • 予測ノードの並列数: 72

オンライン予測でのノード使用

AI プラットフォームでは、オンライン予測でのノード使用に割り当てを適用しません。詳しくは、予測ノードとリソース割り当てをご覧ください。

トレーニングでの CPU の同時使用の制限

一般的なプロジェクトでは、同時に使用する仮想 CPU の数は、プロジェクトの使用履歴に基づいてスケーリングされます。

  • CPU の同時使用数: 最初は 20 個の CPU ですが、一般的には 450 個までスケーリングされます。これらの制限は、すべてのマシンタイプで同時に使用する CPU の最大数の合計を表します。

モデルのトレーニングに使用する CPU は Compute Engine の CPU としてカウントされません。また、AI プラットフォームの割り当てでは、Compute Engine VM にアクセスして他のコンピューティング要件に利用することはできません。Compute Engine VM を起動する場合は、Compute Engine のドキュメントに記載されているように、Compute Engine の割り当てをリクエストする必要があります。

トレーニングでの GPU の同時使用の制限

一般的なプロジェクトで AI プラットフォームを初めて使用する場合、トレーニング ML モデルで同時に使用できる GPU の数は次のように制限されています。

  • GPU の同時使用数: 同時に使用できる GPU の最大数。タイプごとに次のように分けられます。

    • Tesla K80 GPU の同時使用数: 30
    • Tesla P100 GPU の同時使用数: 30

モデルをトレーニングする際に使用する GPU は Compute Engine の GPU としてカウントされません。また、AI プラットフォームの割り当てによって、GPU を使用する Compute Engine VM にアクセスすることはできません。GPU を使用する Compute Engine VM を起動する場合は、Compute Engine のドキュメントに記載されているように、Compute Engine GPU の割り当てをリクエストする必要があります。

GPU について詳しくは、GPU を使用してクラウド内のモデルをトレーニングする方法をご覧ください。

トレーニングでの TPU の同時使用の制限

すべての Google Cloud Platform プロジェクトには、デフォルトで少なくとも 1 つの Cloud TPU の割り当てがあります。

追加の Cloud TPU の割り当てが必要な場合は、TPU 割り当てリクエスト フォームに記入します。割り当ては Cloud TPU 1 つにつき TPU コア 8 個単位で割り当てられます。

割り当てが承認されると通知が届きます。次に、TPU を使用するように Google Cloud Platform プロジェクトを構成します。TPU の使用方法のガイドをご覧ください。

需要が多いため、すべての割り当てリクエストを許可することはできない場合があります。

次のステップ

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

TensorFlow 用 AI Platform