GDC 上の VM ランタイムの上限

このページでは、GKE on Bare Metal で実行される VM の基本的なスケーリング情報について説明します。提供された情報は、プロダクトまたはインストールのハードリミットまたは保証されたしきい値を示すものではありません。この情報は、GDC 上の VM ランタイムがコンピューティング要件を満たしているかどうかを判断するのに役立つことを意図しています。

GKE on Bare Metal の割り当て、上限、スケーリングについては、割り当てと上限をご覧ください。

VM の最大スケーリング

広範囲に及ぶテストを通じて、50 ノードの GKE on Bare Metal クラスタで同時に 500 台の VM を同時に安定的に実行できることを確認しました。

リソースの使用量

VM デプロイをスケールアップするには、VM とコントロール プレーン コンポーネントの両方について、クラスタに十分な CPU、メモリ、ストレージ リソースがあることを確認してください。クラスタノード マシンの標準リソース要件については、クラスタノード マシンの前提条件をご覧ください。

VM の最大スケーリングの構成では、GDC リソース上の VM ランタイムの使用量が次のとおりであることに注意してください。

  • vm-system 名前空間のすべてのコンポーネントで使用される CPU シェア数の合計は、ピーク使用量で約 1.3 です。
  • vm-system 名前空間のすべてのコンポーネントによって消費される合計メモリは約 10 GiB です。

リソースに関する既知の問題

現在、ゲスト エージェントが有効になっている場合、各 VM は別個のウォッチャーを API サーバーに登録します。したがって、kube-apiserver に登録されているウォッチャーの数は VM の数に比例してリニアに増加します。実行するワークロードによっては、VM の数が増えると、kube-apiserver に関連する問題が発生する可能性があります。この問題の影響を受ける場合は、kube-apiserver を構成するか、ゲスト エージェントを無効にします(使用していない場合)。