asmcli を使用してマネージド Cloud Service Mesh をプロビジョニングする

概要

asmcli を使用したマネージド Cloud Service Mesh は、マネージド コントロール プレーンであり、簡単に構成できるマネージド データプレーンです。信頼性、アップグレード、スケーリング、セキュリティについては、Google が下位互換性のある方法で対応します。このガイドでは、単一クラスタまたはマルチクラスタの構成で、asmcli を使用してマネージド Cloud Service Mesh にアプリケーションを設定または移行する方法について説明します。

マネージド Cloud Service Mesh でサポートされる機能と制限事項については、マネージド Cloud Service Mesh でサポートされる機能をご覧ください。

前提条件

このガイドは、次のものが用意されていることを前提としています。

要件

  • サポートされているいずれかのリージョンで、サポート対象バージョンの GKE を使用している 1 つ以上のクラスタ。
  • マネージド Cloud Service Mesh がクラスタにインストールする必要なコンポーネントに十分な容量がクラスタに存在することを確認します。
    • kube-system 名前空間内の mdp-controller デプロイは、CPU: 50m、メモリ: 128Mi をリクエストします。
    • kube-system 名前空間内の istio-cni-node DaemonSet は、各ノードに対して CPU: 100m、メモリ: 100Mi をリクエストします。
  • 組織のポリシー constraints/compute.disableInternetNetworkEndpointGroup が無効になっていることを確認します。 ポリシーが有効になっている場合、ServiceEntry は機能しない可能性があります。
  • マネージド Cloud Service Mesh をプロビジョニングするクライアント マシンと API サーバーとのネットワーク接続を確認します。
  • クラスタは、フリートに登録されている必要があります。この手順は、プロビジョニング前に個別に行うことも、--enable-registration フラグと --fleet-id フラグを渡してプロビジョニングの一環として行うこともできます。
  • プロジェクトでサービス メッシュ フリート機能が有効になっている必要があります。プロビジョニングの一環として有効にするには、--enable-gcp-components を渡すか、次のコマンドを実行します。

    gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
    

    ここで、FLEET_PROJECT_ID はフリート ホスト プロジェクトのプロジェクト ID です。

  • GKE Autopilot は、GKE バージョン 1.21.3 以降でのみサポートされています。

  • マネージド Cloud Service Mesh では、単一プロジェクトの単一ネットワーク環境または複数プロジェクトの単一ネットワーク環境で複数の GKE クラスタを使用できます。

    • 異なるプロジェクトのクラスタを追加する場合は、同じフリート ホスト プロジェクトにクラスタを登録する必要があります。また、共有 VPC 構成でクラスタを同じネットワークに接続する必要があります。
    • 単一プロジェクト マルチクラスタ環境では、フリート プロジェクトはクラスタ プロジェクトと同じにできます。フリートの詳細については、フリートの概要をご覧ください。
    • マルチプロジェクト環境では、クラスタ プロジェクトとは別のプロジェクトでフリートをホストすることをおすすめします。組織のポリシーと既存の構成で許可されている場合は、共有 VPC プロジェクトをフリート ホスト プロジェクトとして使用することをおすすめします。詳細については、共有 VPC を使用したクラスタの設定をご覧ください。
    • 組織で VPC Service Controls を使用していて、さらにリリースが 1.22.1-gke.10 以上の GKE クラスタでマネージド Cloud Service Mesh をプロビジョニングしている場合は、次の追加の構成手順が必要になる場合があります。
      • マネージド Cloud Service Mesh を Regular または Stable リリース チャンネルでプロビジョニングする場合、マネージド コントロール プレーンを適用する際に追加の --use-vpcsc フラグを使用し、VPC Service Controls(プレビュー版)ガイドに沿って操作する必要があります。そうしないと、プロビジョニングでセキュリティ コントロールが失敗します。
      • マネージド Cloud Service Mesh を Rapid リリース チャンネルでプロビジョニングする場合、マネージド コントロール プレーンを適用する際に追加の --use-vpcsc フラグを使用する必要はありませんが、VPC Service Controls(一般提供)ガイドに沿って操作する必要があります。

Cloud Service Mesh のインストールに必要なロール

次の表に、マネージド Cloud Service Mesh のインストールに必要なロールを示します。

ロール名 ロール ID 付与する場所 説明
GKE Hub 管理者 roles/gkehub.admin フリート プロジェクト GKE Hub と関連リソースに対する完全アクセス権。
Service Usage 管理者 roles/serviceusage.serviceUsageAdmin フリート プロジェクト サービス状態の有効化、無効化、検査、オペレーションの検査、ユーザー プロジェクトの割り当てと請求の利用が可能な権限。 (注 1)
CA サービス管理者ベータ版 roles/privateca.admin フリート プロジェクト すべての CA サービスのリソースへの完全アクセス権。 (注 2)

制限事項

Cloud Service Mesh でサポートされている機能と制限事項のリストを確認することをおすすめします。 特に、次の点に注意してください。

  • IstioOperator API は、クラスタ内のコンポーネントを制御することが主な目的であるため、サポートされていません。

  • GKE Autopilot クラスタの場合、プロジェクト間の設定は GKE 1.23 以降でのみサポートされます。

  • GKE Autopilot クラスタの場合、GKE Autopilot リソースの上限に適応するために、デフォルトのプロキシ リソースのリクエストと上限は 500m CPU と 512 MB メモリに設定されています。カスタム インジェクションを使用して、デフォルト値をオーバーライドできます。

  • マネージド コントロール プレーンのプロビジョニング プロセス中に、Istio CRD が指定のクラスタにプロビジョニングされます。クラスタに既存の Istio CRD が存在している場合、それらは上書きされます。

  • Istio CNI と Cloud Service Mesh には、GKE Sandbox との互換性がありません。したがって、TRAFFIC_DIRECTOR 実装のマネージド Cloud Service Mesh は、GKE Sandbox が有効になっているクラスタをサポートしていません。

  • asmcli ツールから Google Kubernetes Engine(GKE)エンドポイントにアクセスできる必要があります。アクセスを構成するには、Virtual Private Cloud(VPC)内の Compute Engine VM などの「ジャンプ」サーバーを使用して特定のアクセス権を付与します。

始める前に

gcloud を構成する

Cloud Shell を使用している場合でも、次の手順を実施します。

  1. Google Cloud CLI で認証します。

    gcloud auth login --project PROJECT_ID
    

    PROJECT_ID は、クラスタ プロジェクトの固有識別子です。次のコマンドを実行して PROJECT_ID を取得します。

       gcloud projects list --filter="<PROJECT ID>" --format="value(PROJECT_NUMBER)"
       ```
    
  2. コンポーネントを更新します。

    gcloud components update
    
  3. クラスタを参照するように kubectl を構成します。

    gcloud container clusters get-credentials CLUSTER_NAME \
         --zone CLUSTER_LOCATION \
         --project PROJECT_ID
    

インストール ツールをダウンロードする

  1. 最新バージョンのツールを現在の作業ディレクトリにダウンロードします。

    curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
    
  2. ツールを実行可能にします。

    chmod +x asmcli
    

各クラスタを構成する

メッシュ内の各クラスタに対してマネージド Cloud Service Mesh を構成するには、次の手順を行います。

マネージド コントロール プレーンを適用する

マネージド コントロール プレーンを適用する前に、リリース チャンネルを選択する必要があります。 Cloud Service Mesh チャンネルは、マネージド Cloud Service Mesh をプロビジョニングするときに、GKE クラスタ チャンネルによって決定されます。同じクラスタ内の複数のチャネルを同時に使用することはできません。

マネージド Cloud Service Mesh を使用するクラスタごとにインストール ツールを実行します。次の両方のオプションを含めることをおすすめします。

  • --enable-registration --fleet_id FLEET_PROJECT_ID。この 2 つのフラグでクラスタをフリートに登録します。ここで、FLEET_ID はフリート ホスト プロジェクトのプロジェクト ID です。単一プロジェクトを使用する場合、FLEET_PROJECT_IDPROJECT_ID と同じであり、フリート ホスト プロジェクトとクラスタ プロジェクトは同じです。マルチプロジェクトのようなより複雑な構成では、個別のフリート ホスト プロジェクトを使用することをおすすめします。

  • --enable-all。このフラグにより、必要なコンポーネントと登録の両方が有効になります。

asmcli ツールは、CLI ツール内のツールとロジックを使用して、マネージド コントロール プレーンを直接構成します。推奨 CA に応じて、以下の一連の手順を使用します。

認証局

メッシュに使用する認証局を選択します。

Mesh CA

次のコマンドを実行して、デフォルトの機能と Mesh CA を備えたコントロール プレーンをインストールします。プレースホルダに値を入力します。

  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all

CA サービス

  1. Certificate Authority Service を構成するの手順に従います。
  2. 次のコマンドを実行して、デフォルト機能と Certificate Authority Service を備えたコントロール プレーンをインストールします。プレースホルダに値を入力します。
  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all \
      --ca gcp_cas \
      --ca_pool pool_name

このツールは、指定された --output_dir にマネージド コントロール プレーンを構成するためのすべてのファイルをダウンロードし、istioctl ツールとサンプル アプリケーションをインストールします。このガイドの手順では、asmcli install の実行時に指定した --output_dir の場所から istioctl が実行され、istioctl<Istio release dir>/bin サブディレクトリにあることを前提としています。

同じクラスタで asmcli を再実行すると、既存のコントロール プレーンの構成が上書きされます。同じ構成が必要な場合は、同じオプションとフラグを指定してください。

コントロール プレーンがプロビジョニングされていることを確認する

数分後、コントロール プレーンのステータスが ACTIVE になっていることを確認します。

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

出力は次のようになります。

membershipStates:
  projects/746296320118/locations/us-central1/memberships/demo-cluster-1:
    servicemesh:
      controlPlaneManagement:
        details:
        - code: REVISION_READY
          details: 'Ready: asm-managed'
        state: ACTIVE
      ...
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed.'

数分以内にステータスが ACTIVE` に到達しない場合は、マネージド コントロール プレーンのステータスを確認するを参照して、考えられるエラーの詳細を確認してください。

ゼロタッチのアップグレード

マネージド コントロール プレーンは、インストール後、新しいリリースやパッチが利用可能になると自動的にアップグレードされます。

マネージド データプレーン

マネージド Cloud Service Mesh を使用している場合、これを無効にしない限り、Google がプロキシのアップグレードを完全に管理します。

マネージド データプレーンが有効な場合、サイドカー プロキシと挿入されたゲートウェイは、ワークロードを再起動してプロキシの新しいバージョンを再挿入することで、マネージド コントロール プレーンとともに自動的に更新されます。これは通常、マネージド コントロール プレーンがアップグレードされてから 1~2 週間後に完了します。

無効になっている場合、プロキシ管理はクラスタ内の Pod の通常のライフサイクルに基づいて行われます。更新頻度を制御するには、ユーザーが手動でトリガーする必要があります。

マネージド データプレーンは、以前のバージョンのプロキシを実行している Pod のエビクションを行うことで、プロキシをアップグレードします。エビクションは、Pod Disruption Budget を維持しながら変更率を制御することによって、段階的に行われます。

マネージド データプレーンでは、次のものは管理されません。

  • 挿入されなかった Pod
  • 手動で挿入された Pod
  • ジョブ
  • StatefulSets
  • DaemonSets

古いクラスタでマネージド Cloud Service Mesh をプロビジョニングした場合は、クラスタ全体でデータプレーン管理を有効にできます。

kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'

または、同じアノテーションを設定して、コントロール プレーンの特定のリビジョン、Namespace、または Pod のマネージド データプレーンを選択的に有効にします。個別のコンポーネントを選択的に制御する場合、優先順位は、コントロール プレーンのリビジョン、名前空間、Pod の順です。

サービスがクラスタ内のプロキシを管理する準備ができるまでに、最大 10 分かかります。次のコマンドを実行してステータスを確認します。

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

予想される出力

membershipStates:
  projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
    servicemesh:
      dataPlaneManagement:
        details:
        - code: OK
          details: Service is running.
        state: ACTIVE
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed-rapid.'

サービスの準備が 10 分以内に完了しない場合は、マネージド データプレーンのステータスで次の手順を確認してください。

マネージド データプレーンを無効にする(省略可)

新しいクラスタにマネージド Cloud Service Mesh をプロビジョニングする場合は、マネージド データプレーンを完全に無効にすることも、個々の名前空間や Pod に対して無効にすることもできます。既存のクラスタがデフォルトで無効になっている場合、または手動で無効にした場合、マネージド データプレーンは引き続き無効になります。

マネージド データプレーンをクラスタレベルで無効にし、サイドカー プロキシの管理に戻すには、アノテーションを変更します。

kubectl annotate --overwrite controlplanerevision -n istio-system \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Namespace 名のマネージド データプレーンを無効にするには:

kubectl annotate --overwrite namespace NAMESPACE \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Pod のマネージド データプレーンを無効にするには:

kubectl annotate --overwrite pod POD_NAME \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

メンテナンス通知を有効にする

マネージド データプレーンのメンテナンスが予定されている遅くとも 1 週間前に、メンテナンスの予定の通知を送信するようにリクエストできます。メンテナンス通知は、デフォルトでは送信されません。また、通知を受信するには、GKE メンテナンスの時間枠を構成する必要があります。有効にすると、アップグレード オペレーションの 2 日前までに通知が送信されます。

マネージド データプレーンのメンテナンス通知を有効にするには:

  1. [通信] ページに移動します。

    [通信] ページに移動

  2. [Cloud Service Mesh Upgrade] 行の [メール] 列で、メンテナンス通知をオンにするラジオボタンを選択します。

通知を受け取る必要があるユーザーごとに個別にオプトインできます。通知のメールフィルタを設定する場合、件名は次のようになります。

Upcoming upgrade for your Cloud Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME"

次の例に、一般的なマネージド データプレーンのメンテナンス通知を示します。

件名: Cloud Service Mesh クラスタ「<location/cluster-name>」のアップグレードの予定

Cloud Service Mesh をご利用のお客様

クラスタ内の Cloud Service Mesh コンポーネント、${instance_id}(https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id})が、${scheduled_date_human_readable} の ${scheduled_time_human_readable} に予定されています。

新しい更新内容については、リリースノート(https://cloud.google.com/service-mesh/docs/release-notes)をご覧ください。

このメンテナンスがキャンセルされた場合は、別途メールが届きます。

何卒よろしくお願い申し上げます。

Cloud Service Mesh チーム

(c) 2023 Google LLC 1600 Amphitheater Parkway、Mountain View、CA 94043 このお知らせは、Google Cloud Platform やアカウントの重要な変更についてお伝えするものです。メンテナンスの時間枠の通知をオプトアウトするには、ユーザー設定(https://console.cloud.google.com/user-preferences/communication?project=${project_id})を編集してください。

エンドポイント ディスカバリの構成(マルチクラスタ インストールのみ)

注: メッシュにクラスタが 1 つしかない場合は、このマルチクラスタの手順をスキップして、アプリケーションのデプロイまたはアプリケーションの移行に進みます。

続行する前に、各クラスタで Cloud Service Mesh が構成されていることを確認します。

一般公開クラスタ

一般公開クラスタ間のエンドポイント検出を構成する

一般公開クラスタ(限定公開以外のクラスタ)で操作している場合は、一般公開クラスタ間のエンドポイント ディスカバリを構成することも、よりシンプルに一般公開クラスタ間のエンドポイント ディスカバリを有効にすることもできます。

限定公開クラスタ

限定公開クラスタ間のエンドポイント検出の構成

GKE の限定公開クラスタを使用する場合は、クラスタ コントロール プレーン エンドポイントを限定公開エンドポイントではなく、一般公開エンドポイントとして構成する必要があります。限定公開クラスタ間のエンドポイント検出の構成をご覧ください。

2 つのクラスタがあるサンプル アプリケーションについては、HelloWorld サービスの例をご覧ください。

アプリケーションのデプロイ

インジェクションの名前空間を有効にします。手順は、コントロール プレーンの実装によって異なります。

マネージド(TD)

  1. デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
    istio.io/rev- istio-injection=enabled --overwrite

マネージド(Istiod)

推奨: 次のコマンドを実行して、デフォルトのインジェクション ラベルを名前空間に適用します。

  kubectl label namespace NAMESPACE \
      istio.io/rev- istio-injection=enabled --overwrite

マネージド Istiod コントロール プレーンを使用している既存のユーザーの場合: デフォルトのインジェクションを使用することをおすすめしますが、リビジョンベースのインジェクションもサポートされています。次の手順を行います。

  1. 利用可能なリリース チャンネルを探すには、次のコマンドを実行します。

    kubectl -n istio-system get controlplanerevision
    

    出力は次のようになります。

    NAME                AGE
    asm-managed-rapid   6d7h
    

    注: 上記のリストに 2 つのコントロール プレーンのリビジョンが表示されている場合は、1 つを削除します。クラスタに複数のコントロール プレーン チャネルを配置することはできません。

    出力で、NAME 列の値は、Cloud Service Mesh バージョンで使用可能なリリース チャンネルに対応するリビジョン ラベルです。

  2. リビジョン ラベルを名前空間に適用します。

    kubectl label namespace NAMESPACE \
        istio-injection- istio.io/rev=REVISION_LABEL --overwrite
    

この時点で、マネージド Cloud Service Mesh が正常に構成されています。ラベル付きの名前空間に既存のワークロードがある場合は、それらを再起動してプロキシが挿入されるようにします。

マルチクラスタ設定にアプリケーションをデプロイする場合、その特定の構成ファイルをクラスタの一部に制限する予定がなければ、すべてのクラスタに Kubernetes とコントロール プレーンの構成を複製します。特定のクラスタに適用される構成は、そのクラスタに対する信頼できる情報源です。

インジェクションをカスタマイズする(省略可)

デフォルト値をオーバーライドしてインジェクション設定をカスタマイズできますが、これにより予期しない構成エラーが発生し、サイドカー コンテナで問題が発生する可能性があります。インジェクションをカスタマイズする前に、サンプルの後の情報を参照して、特定の設定と推奨事項に関する注意事項を確認してください。

Pod ごとの構成を使用して、個々の Pod でこれらのオプションをオーバーライドできます。これを行うには、istio-proxy コンテナを Pod に追加します。サイドカー インジェクションでは、ここで定義された構成はデフォルトのインジェクション テンプレートのオーバーライドとして扱われます。

たとえば、次の構成では、CPU リクエストの削減、ボリューム マウントの追加、preStop フックの追加など、さまざまな設定をカスタマイズできます。

apiVersion: v1
kind: Pod
metadata:
  name: example
spec:
  containers:
  - name: hello
    image: alpine
  - name: istio-proxy
    image: auto
    resources:
      requests:
        cpu: "200m"
        memory: "256Mi"
      limits:
        cpu: "200m"
        memory: "256Mi"
    volumeMounts:
    - mountPath: /etc/certs
      name: certs
    lifecycle:
      preStop:
        exec:
          command: ["sleep", "10"]
  volumes:
  - name: certs
    secret:
      secretName: istio-certs

一般に、Pod 内の任意のフィールドを設定できます。ただし、特定のフィールドには注意が必要です。

  • Kubernetes では、インジェクションの実行前に image フィールドを設定する必要があります。特定のイメージを設定してデフォルトをオーバーライドできますが、imageauto に設定することをおすすめします。これにより、サイドカー インジェクタで使用するイメージが自動的に選択されます。
  • containers の一部のフィールドは、関連する設定に依存しています。たとえば、CPU の上限以下にする必要があります。両方のフィールドが正しく構成されていないと、Pod の起動に失敗することがあります。
  • Kubernetes では、Pod spec 内のリソースに requestslimits の両方を設定できます。GKE Autopilot では requests のみが考慮されます。詳細については、Autopilot でのリソース制限の設定をご覧ください。

また、特定のフィールドは Pod のアノテーションで構成できますが、上記の方法で設定をカスタマイズすることをおすすめします。次のアノテーションには特に注意してください。

  • GKE Standard で sidecar.istio.io/proxyCPU が設定されている場合は、sidecar.istio.io/proxyCPULimit を明示的に設定してください。明示的に設定しなければ、サイドカーの CPU 上限が無制限に設定されます。
  • GKE Standard で sidecar.istio.io/proxyMemory が設定されている場合は、sidecar.istio.io/proxyMemoryLimit を明示的に設定してください。明示的に設定しなければ、サイドカーのメモリ上限が無制限に設定されます。
  • GKE Autopilot でアノテーションを使用してリソース requestslimits を構成すると、リソースがオーバープロビジョニングされる可能性があります。これを避けるには、イメージ テンプレート方式を使用します。Autopilot のリソース変更の例をご覧ください。

たとえば、次のリソースのアノテーション構成をご覧ください。

spec:
  template:
    metadata:
      annotations:
        sidecar.istio.io/proxyCPU: "200m"
        sidecar.istio.io/proxyCPULimit: "200m"
        sidecar.istio.io/proxyMemory: "256Mi"
        sidecar.istio.io/proxyMemoryLimit: "256Mi"

コントロール プレーンの指標の確認

コントロール プレーンとデータプレーンのバージョンは、Metrics Explorer で確認できます。

構成が期待どおりに動作することを確認するには:

  1. Google Cloud コンソールで、コントロール プレーンの指標を確認します。

    Metrics Explorer に移動

  2. ワークスペースを選択し、次のパラメータを使用してカスタムクエリを追加します。

    • Resource type: Kubernetes Container
    • Metric: Proxy Clients
    • Filter: container_name="cr-REVISION_LABEL"
    • Group By: revision ラベルと proxy_version ラベル
    • Aggregator: sum
    • Period: 1 minute

    Google マネージドのコントロール プレーンとクラスタ内コントロール プレーンの両方で Cloud Service Mesh を実行する場合は、そのコンテナ名を使用してそれぞれの指標を区別できます。たとえば、マネージド指標には container_name="cr-asm-managed" が含まれ、非マネージド指標には container_name="discovery" が含まれます。両方の指標を表示するには、container_name="cr-asm-managed" の Filter を削除します。

  3. Metrics Explorer で次のフィールドを調べて、コントロール プレーンとプロキシのバージョンを確認します。

    • [revision] は、コントロール プレーンのバージョンを示します。
    • [proxy_version] は proxy_version を示します。
    • [value] は、接続されたプロキシの数を示します。

    現在のチャンネルから Cloud Service Mesh バージョンへのマッピングについては、チャンネルごとの Cloud Service Mesh バージョンをご覧ください。

アプリケーションをマネージド Cloud Service Mesh に移行する

移行の準備を行う

クラスタ内 Cloud Service Mesh からマネージド Cloud Service Mesh にアプリケーションを移行するための準備を行うには、次の手順を行います。

  1. Google 管理のコントロール プレーンを適用するの手順に沿ってツールを実行します。

  2. (省略可)Google が管理するデータプレーンを使用する場合は、データプレーンの管理を有効にします。

      kubectl annotate --overwrite controlplanerevision REVISION_TAG \
      mesh.cloud.google.com/proxy='{"managed":"true"}'
    

アプリケーションを移行する

クラスタ内 Cloud Service Mesh からマネージド Cloud Service Mesh にアプリケーションを移行するには、次の手順を行います。

  1. 現在の名前空間のラベルを置き換えます。手順は、コントロール プレーンの実装によって異なります。

マネージド(TD)

  1. デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
    istio.io/rev- istio-injection=enabled --overwrite

マネージド(Istiod)

推奨: 次のコマンドを実行して、デフォルトのインジェクション ラベルを名前空間に適用します。

  kubectl label namespace NAMESPACE \
      istio.io/rev- istio-injection=enabled --overwrite

マネージド Istiod コントロール プレーンを使用している既存のユーザーの場合: デフォルトのインジェクションを使用することをおすすめしますが、リビジョンベースのインジェクションもサポートされています。次の手順を行います。

  1. 利用可能なリリース チャンネルを探すには、次のコマンドを実行します。

    kubectl -n istio-system get controlplanerevision
    

    出力は次のようになります。

    NAME                AGE
    asm-managed-rapid   6d7h
    

    注: 上記のリストに 2 つのコントロール プレーンのリビジョンが表示されている場合は、1 つを削除します。クラスタに複数のコントロール プレーン チャネルを配置することはできません。

    出力で、NAME 列の値は、Cloud Service Mesh バージョンで使用可能なリリース チャンネルに対応するリビジョン ラベルです。

  2. リビジョン ラベルを名前空間に適用します。

    kubectl label namespace NAMESPACE \
        istio-injection- istio.io/rev=REVISION_LABEL --overwrite
    
  1. 名前空間で Deployment のローリング アップグレードを実行します。

    kubectl rollout restart deployment -n NAMESPACE
    
  2. アプリケーションをテストして、ワークロードが正しく機能することを確認します。

  3. 他の名前空間にワークロードがある場合は、各名前空間に対して前の手順を繰り返します。

  4. マルチクラスタ設定にアプリケーションをデプロイした場合は、すべてのクラスタに Kubernetes と Istio の構成を複製します。ただし、その構成をクラスタの一部に制限する場合を除きます。特定のクラスタに適用される構成は、そのクラスタに対する信頼できる情報源です。

アプリケーションが期待どおりに動作していることを確認したら、すべての名前空間をマネージド コントロール プレーンに切り替えた後にクラスタ内の istiod を削除できます。また、これらをバックアップとして残すこともできます。この場合、istiod が自動的にスケールダウンし、リソースの使用量が少なくなります。削除するには、古いコントロール プレーンを削除するに進みます。

問題が発生した場合は、マネージド コントロール プレーンの問題を解決するを参照して問題を特定し、解決します。また、必要であれば以前のバージョンにロールバックできます。

古いコントロール プレーンを削除する

すべての名前空間で Google 管理のコントロール プレーンが使用されていることを確認したら、古いコントロール プレーンを削除できます。

kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true

自動インジェクションではなく istioctl kube-inject を使用した場合や、追加のゲートウェイをインストールした場合は、コントロール プレーンの指標をチェックし、接続されているエンドポイントの数がゼロであることを確認します。

ロールバック

前のコントロール プレーン バージョンにロールバックする必要がある場合は、次の手順を行います。

  1. コントロール プレーンの以前のバージョンで挿入されるワークロードを更新します。次のコマンドのリビジョン値 asm-191-1 はサンプルとして使用されています。このサンプル値は、前のコントロール プレーンのリビジョン ラベルに置き換えてください。

    kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
    
  2. プロキシが Istio のバージョンになるように、Pod を再起動してインジェクションを再度トリガーします。

    kubectl rollout restart deployment -n NAMESPACE
    

未使用時は、マネージド コントロール プレーンは自動的にゼロへスケーリングされ、リソースを使用しません。Webhook の変更とプロビジョニングはそのまま残り、クラスタの動作には影響しません。

これでゲートウェイが asm-managed リビジョンに設定されました。ロールバックするには、Cloud Service Mesh のインストール コマンドを再実行します。これにより、クラスタ内コントロール プレーンを参照するゲートウェイが再デプロイされます。

kubectl -n istio-system rollout undo deploy istio-ingressgateway

正常に実行されると、次の出力が表示されます。

deployment.apps/istio-ingressgateway rolled back

アンインストール

名前空間で使用されていない場合、マネージド コントロール プレーンは自動的にゼロにスケールされます。詳細な手順については、Cloud Service Mesh をアンインストールするをご覧ください。

トラブルシューティング

マネージド コントロール プレーンを使用する際の問題を特定して解決するには、マネージド コントロール プレーンの問題を解決するをご覧ください。

次のステップ