asmcli を使用してマネージド Cloud Service Mesh をプロビジョニングする
概要
asmcli
を使用したマネージド Cloud Service Mesh は、マネージド コントロール プレーンであり、簡単に構成できるマネージド データプレーンです。信頼性、アップグレード、スケーリング、セキュリティについては、Google が下位互換性のある方法で対応します。このガイドでは、単一クラスタまたはマルチクラスタの構成で、asmcli
を使用してマネージド Cloud Service Mesh にアプリケーションを設定または移行する方法について説明します。
マネージド Cloud Service Mesh でサポートされる機能と制限事項については、マネージド Cloud Service Mesh でサポートされる機能をご覧ください。
前提条件
このガイドは、次のものが用意されていることを前提としています。
- Cloud プロジェクト
- Cloud 請求先アカウント
- Cloud Service Mesh をプロビジョニングするために必要な権限を取得している
asmcli
インストール ツール、kpt
、必要なツールをインストールするで指定されているその他のツール
プロビジョニングにかかる時間を短縮するには、クラスタで Workload Identity を有効にする必要があります。Workload Identity が有効でない場合は、プロビジョニングにより自動的に有効になります。
要件
- サポートされているいずれかのリージョンで、サポート対象バージョンの GKE を使用している 1 つ以上のクラスタ。
- マネージド Cloud Service Mesh がクラスタにインストールする必要なコンポーネントに十分な容量がクラスタに存在することを確認します。
kube-system
名前空間内のmdp-controller
デプロイは、CPU: 50m、メモリ: 128Mi をリクエストします。kube-system
名前空間内のistio-cni-node
DaemonSet は、各ノードに対して CPU: 100m、メモリ: 100Mi をリクエストします。
- 組織のポリシー
constraints/compute.disableInternetNetworkEndpointGroup
が無効になっていることを確認します。 ポリシーが有効になっている場合、ServiceEntry は機能しない可能性があります。 - マネージド Cloud Service Mesh をプロビジョニングするクライアント マシンと API サーバーとのネットワーク接続を確認します。
- クラスタは、フリートに登録されている必要があります。この手順は、プロビジョニング前に個別に行うことも、
--enable-registration
フラグと--fleet-id
フラグを渡してプロビジョニングの一環として行うこともできます。 プロジェクトでサービス メッシュ フリート機能が有効になっている必要があります。プロビジョニングの一環として有効にするには、
--enable-gcp-components
を渡すか、次のコマンドを実行します。gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
ここで、FLEET_PROJECT_ID はフリート ホスト プロジェクトのプロジェクト ID です。
GKE Autopilot は、GKE バージョン 1.21.3 以降でのみサポートされています。
マネージド Cloud Service Mesh では、単一プロジェクトの単一ネットワーク環境または複数プロジェクトの単一ネットワーク環境で複数の GKE クラスタを使用できます。
- 異なるプロジェクトのクラスタを追加する場合は、同じフリート ホスト プロジェクトにクラスタを登録する必要があります。また、共有 VPC 構成でクラスタを同じネットワークに接続する必要があります。
- 単一プロジェクト マルチクラスタ環境では、フリート プロジェクトはクラスタ プロジェクトと同じにできます。フリートの詳細については、フリートの概要をご覧ください。
- マルチプロジェクト環境では、クラスタ プロジェクトとは別のプロジェクトでフリートをホストすることをおすすめします。組織のポリシーと既存の構成で許可されている場合は、共有 VPC プロジェクトをフリート ホスト プロジェクトとして使用することをおすすめします。詳細については、共有 VPC を使用したクラスタの設定をご覧ください。
- 組織で VPC Service Controls を使用していて、さらにリリースが 1.22.1-gke.10 以上の GKE クラスタでマネージド Cloud Service Mesh をプロビジョニングしている場合は、次の追加の構成手順が必要になる場合があります。
- マネージド Cloud Service Mesh を Regular または Stable リリース チャンネルでプロビジョニングする場合、マネージド コントロール プレーンを適用する際に追加の
--use-vpcsc
フラグを使用し、VPC Service Controls(プレビュー版)ガイドに沿って操作する必要があります。そうしないと、プロビジョニングでセキュリティ コントロールが失敗します。 - マネージド Cloud Service Mesh を Rapid リリース チャンネルでプロビジョニングする場合、マネージド コントロール プレーンを適用する際に追加の
--use-vpcsc
フラグを使用する必要はありませんが、VPC Service Controls(一般提供)ガイドに沿って操作する必要があります。
- マネージド Cloud Service Mesh を Regular または Stable リリース チャンネルでプロビジョニングする場合、マネージド コントロール プレーンを適用する際に追加の
Cloud Service Mesh のインストールに必要なロール
次の表に、マネージド Cloud Service Mesh のインストールに必要なロールを示します。
ロール名 | ロール ID | 付与する場所 | 説明 |
---|---|---|---|
GKE Hub 管理者 | roles/gkehub.admin | フリート プロジェクト | GKE Hub と関連リソースに対する完全アクセス権。 |
Service Usage 管理者 | roles/serviceusage.serviceUsageAdmin | フリート プロジェクト | サービス状態の有効化、無効化、検査、オペレーションの検査、ユーザー プロジェクトの割り当てと請求の利用が可能な権限。 (注 1) |
CA サービス管理者ベータ版 | roles/privateca.admin | フリート プロジェクト | すべての CA サービスのリソースへの完全アクセス権。 (注 2) |
制限事項
Cloud Service Mesh でサポートされている機能と制限事項のリストを確認することをおすすめします。 特に、次の点に注意してください。
IstioOperator
API は、クラスタ内のコンポーネントを制御することが主な目的であるため、サポートされていません。GKE Autopilot クラスタの場合、プロジェクト間の設定は GKE 1.23 以降でのみサポートされます。
GKE Autopilot クラスタの場合、GKE Autopilot リソースの上限に適応するために、デフォルトのプロキシ リソースのリクエストと上限は 500m CPU と 512 MB メモリに設定されています。カスタム インジェクションを使用して、デフォルト値をオーバーライドできます。
マネージド コントロール プレーンのプロビジョニング プロセス中に、Istio CRD が指定のクラスタにプロビジョニングされます。クラスタに既存の Istio CRD が存在している場合、それらは上書きされます。
Istio CNI と Cloud Service Mesh には、GKE Sandbox との互換性がありません。したがって、
TRAFFIC_DIRECTOR
実装のマネージド Cloud Service Mesh は、GKE Sandbox が有効になっているクラスタをサポートしていません。asmcli
ツールから Google Kubernetes Engine(GKE)エンドポイントにアクセスできる必要があります。アクセスを構成するには、Virtual Private Cloud(VPC)内の Compute Engine VM などの「ジャンプ」サーバーを使用して特定のアクセス権を付与します。
始める前に
gcloud を構成する
Cloud Shell を使用している場合でも、次の手順を実施します。
Google Cloud CLI で認証します。
gcloud auth login --project PROJECT_ID
PROJECT_ID は、クラスタ プロジェクトの固有識別子です。次のコマンドを実行して PROJECT_ID を取得します。
gcloud projects list --filter="<PROJECT ID>" --format="value(PROJECT_NUMBER)" ```
コンポーネントを更新します。
gcloud components update
クラスタを参照するように
kubectl
を構成します。gcloud container clusters get-credentials CLUSTER_NAME \ --zone CLUSTER_LOCATION \ --project PROJECT_ID
インストール ツールをダウンロードする
最新バージョンのツールを現在の作業ディレクトリにダウンロードします。
curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
ツールを実行可能にします。
chmod +x asmcli
各クラスタを構成する
メッシュ内の各クラスタに対してマネージド Cloud Service Mesh を構成するには、次の手順を行います。
マネージド コントロール プレーンを適用する
マネージド コントロール プレーンを適用する前に、リリース チャンネルを選択する必要があります。 Cloud Service Mesh チャンネルは、マネージド Cloud Service Mesh をプロビジョニングするときに、GKE クラスタ チャンネルによって決定されます。同じクラスタ内の複数のチャネルを同時に使用することはできません。
マネージド Cloud Service Mesh を使用するクラスタごとにインストール ツールを実行します。次の両方のオプションを含めることをおすすめします。
--enable-registration --fleet_id FLEET_PROJECT_ID
。この 2 つのフラグでクラスタをフリートに登録します。ここで、FLEET_ID はフリート ホスト プロジェクトのプロジェクト ID です。単一プロジェクトを使用する場合、FLEET_PROJECT_ID は PROJECT_ID と同じであり、フリート ホスト プロジェクトとクラスタ プロジェクトは同じです。マルチプロジェクトのようなより複雑な構成では、個別のフリート ホスト プロジェクトを使用することをおすすめします。--enable-all
。このフラグにより、必要なコンポーネントと登録の両方が有効になります。
asmcli
ツールは、CLI ツール内のツールとロジックを使用して、マネージド コントロール プレーンを直接構成します。推奨 CA に応じて、以下の一連の手順を使用します。
認証局
メッシュに使用する認証局を選択します。
Mesh CA
次のコマンドを実行して、デフォルトの機能と Mesh CA を備えたコントロール プレーンをインストールします。プレースホルダに値を入力します。
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all
CA サービス
- Certificate Authority Service を構成するの手順に従います。
- 次のコマンドを実行して、デフォルト機能と Certificate Authority Service を備えたコントロール プレーンをインストールします。プレースホルダに値を入力します。
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all \
--ca gcp_cas \
--ca_pool pool_name
このツールは、指定された --output_dir
にマネージド コントロール プレーンを構成するためのすべてのファイルをダウンロードし、istioctl
ツールとサンプル アプリケーションをインストールします。このガイドの手順では、asmcli install
の実行時に指定した --output_dir
の場所から istioctl
が実行され、istioctl
が <Istio release dir>/bin
サブディレクトリにあることを前提としています。
同じクラスタで asmcli
を再実行すると、既存のコントロール プレーンの構成が上書きされます。同じ構成が必要な場合は、同じオプションとフラグを指定してください。
コントロール プレーンがプロビジョニングされていることを確認する
数分後、コントロール プレーンのステータスが ACTIVE
になっていることを確認します。
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
出力は次のようになります。
membershipStates: projects/746296320118/locations/us-central1/memberships/demo-cluster-1: servicemesh: controlPlaneManagement: details: - code: REVISION_READY details: 'Ready: asm-managed' state: ACTIVE ... state: code: OK description: 'Revision(s) ready for use: asm-managed.'
数分以内にステータスが ACTIVE
` に到達しない場合は、マネージド コントロール プレーンのステータスを確認するを参照して、考えられるエラーの詳細を確認してください。
ゼロタッチのアップグレード
マネージド コントロール プレーンは、インストール後、新しいリリースやパッチが利用可能になると自動的にアップグレードされます。
マネージド データプレーン
マネージド Cloud Service Mesh を使用している場合、これを無効にしない限り、Google がプロキシのアップグレードを完全に管理します。
マネージド データプレーンが有効な場合、サイドカー プロキシと挿入されたゲートウェイは、ワークロードを再起動してプロキシの新しいバージョンを再挿入することで、マネージド コントロール プレーンとともに自動的に更新されます。これは通常、マネージド コントロール プレーンがアップグレードされてから 1~2 週間後に完了します。
無効になっている場合、プロキシ管理はクラスタ内の Pod の通常のライフサイクルに基づいて行われます。更新頻度を制御するには、ユーザーが手動でトリガーする必要があります。
マネージド データプレーンは、以前のバージョンのプロキシを実行している Pod のエビクションを行うことで、プロキシをアップグレードします。エビクションは、Pod Disruption Budget を維持しながら変更率を制御することによって、段階的に行われます。
マネージド データプレーンでは、次のものは管理されません。
- 挿入されなかった Pod
- 手動で挿入された Pod
- ジョブ
- StatefulSets
- DaemonSets
古いクラスタでマネージド Cloud Service Mesh をプロビジョニングした場合は、クラスタ全体でデータプレーン管理を有効にできます。
kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'
または、同じアノテーションを設定して、コントロール プレーンの特定のリビジョン、Namespace、または Pod のマネージド データプレーンを選択的に有効にします。個別のコンポーネントを選択的に制御する場合、優先順位は、コントロール プレーンのリビジョン、名前空間、Pod の順です。
サービスがクラスタ内のプロキシを管理する準備ができるまでに、最大 10 分かかります。次のコマンドを実行してステータスを確認します。
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
予想される出力
membershipStates:
projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
servicemesh:
dataPlaneManagement:
details:
- code: OK
details: Service is running.
state: ACTIVE
state:
code: OK
description: 'Revision(s) ready for use: asm-managed-rapid.'
サービスの準備が 10 分以内に完了しない場合は、マネージド データプレーンのステータスで次の手順を確認してください。
マネージド データプレーンを無効にする(省略可)
新しいクラスタにマネージド Cloud Service Mesh をプロビジョニングする場合は、マネージド データプレーンを完全に無効にすることも、個々の名前空間や Pod に対して無効にすることもできます。既存のクラスタがデフォルトで無効になっている場合、または手動で無効にした場合、マネージド データプレーンは引き続き無効になります。
マネージド データプレーンをクラスタレベルで無効にし、サイドカー プロキシの管理に戻すには、アノテーションを変更します。
kubectl annotate --overwrite controlplanerevision -n istio-system \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Namespace 名のマネージド データプレーンを無効にするには:
kubectl annotate --overwrite namespace NAMESPACE \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Pod のマネージド データプレーンを無効にするには:
kubectl annotate --overwrite pod POD_NAME \
mesh.cloud.google.com/proxy='{"managed":"false"}'
メンテナンス通知を有効にする
マネージド データプレーンのメンテナンスが予定されている遅くとも 1 週間前に、メンテナンスの予定の通知を送信するようにリクエストできます。メンテナンス通知は、デフォルトでは送信されません。また、通知を受信するには、GKE メンテナンスの時間枠を構成する必要があります。有効にすると、アップグレード オペレーションの 2 日前までに通知が送信されます。
マネージド データプレーンのメンテナンス通知を有効にするには:
[通信] ページに移動します。
[Cloud Service Mesh Upgrade] 行の [メール] 列で、メンテナンス通知をオンにするラジオボタンを選択します。
通知を受け取る必要があるユーザーごとに個別にオプトインできます。通知のメールフィルタを設定する場合、件名は次のようになります。
Upcoming upgrade for your Cloud Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME"
。
次の例に、一般的なマネージド データプレーンのメンテナンス通知を示します。
件名: Cloud Service Mesh クラスタ「
<location/cluster-name>
」のアップグレードの予定Cloud Service Mesh をご利用のお客様
クラスタ内の Cloud Service Mesh コンポーネント、${instance_id}(https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id})が、${scheduled_date_human_readable} の ${scheduled_time_human_readable} に予定されています。
新しい更新内容については、リリースノート(https://cloud.google.com/service-mesh/docs/release-notes)をご覧ください。
このメンテナンスがキャンセルされた場合は、別途メールが届きます。
何卒よろしくお願い申し上げます。
Cloud Service Mesh チーム
(c) 2023 Google LLC 1600 Amphitheater Parkway、Mountain View、CA 94043 このお知らせは、Google Cloud Platform やアカウントの重要な変更についてお伝えするものです。メンテナンスの時間枠の通知をオプトアウトするには、ユーザー設定(https://console.cloud.google.com/user-preferences/communication?project=${project_id})を編集してください。
エンドポイント ディスカバリの構成(マルチクラスタ インストールのみ)
注: メッシュにクラスタが 1 つしかない場合は、このマルチクラスタの手順をスキップして、アプリケーションのデプロイまたはアプリケーションの移行に進みます。
続行する前に、各クラスタで Cloud Service Mesh が構成されていることを確認します。
一般公開クラスタ
一般公開クラスタ間のエンドポイント検出を構成する
一般公開クラスタ(限定公開以外のクラスタ)で操作している場合は、一般公開クラスタ間のエンドポイント ディスカバリを構成することも、よりシンプルに一般公開クラスタ間のエンドポイント ディスカバリを有効にすることもできます。
限定公開クラスタ
限定公開クラスタ間のエンドポイント検出の構成
GKE の限定公開クラスタを使用する場合は、クラスタ コントロール プレーン エンドポイントを限定公開エンドポイントではなく、一般公開エンドポイントとして構成する必要があります。限定公開クラスタ間のエンドポイント検出の構成をご覧ください。
2 つのクラスタがあるサンプル アプリケーションについては、HelloWorld サービスの例をご覧ください。
アプリケーションのデプロイ
インジェクションの名前空間を有効にします。手順は、コントロール プレーンの実装によって異なります。
マネージド(TD)
- デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
マネージド(Istiod)
推奨: 次のコマンドを実行して、デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
マネージド Istiod コントロール プレーンを使用している既存のユーザーの場合: デフォルトのインジェクションを使用することをおすすめしますが、リビジョンベースのインジェクションもサポートされています。次の手順を行います。
利用可能なリリース チャンネルを探すには、次のコマンドを実行します。
kubectl -n istio-system get controlplanerevision
出力は次のようになります。
NAME AGE asm-managed-rapid 6d7h
注: 上記のリストに 2 つのコントロール プレーンのリビジョンが表示されている場合は、1 つを削除します。クラスタに複数のコントロール プレーン チャネルを配置することはできません。
出力で、
NAME
列の値は、Cloud Service Mesh バージョンで使用可能なリリース チャンネルに対応するリビジョン ラベルです。リビジョン ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \ istio-injection- istio.io/rev=REVISION_LABEL --overwrite
この時点で、マネージド Cloud Service Mesh が正常に構成されています。ラベル付きの名前空間に既存のワークロードがある場合は、それらを再起動してプロキシが挿入されるようにします。
マルチクラスタ設定にアプリケーションをデプロイする場合、その特定の構成ファイルをクラスタの一部に制限する予定がなければ、すべてのクラスタに Kubernetes とコントロール プレーンの構成を複製します。特定のクラスタに適用される構成は、そのクラスタに対する信頼できる情報源です。
インジェクションをカスタマイズする(省略可)
デフォルト値をオーバーライドしてインジェクション設定をカスタマイズできますが、これにより予期しない構成エラーが発生し、サイドカー コンテナで問題が発生する可能性があります。インジェクションをカスタマイズする前に、サンプルの後の情報を参照して、特定の設定と推奨事項に関する注意事項を確認してください。
Pod ごとの構成を使用して、個々の Pod でこれらのオプションをオーバーライドできます。これを行うには、istio-proxy
コンテナを Pod に追加します。サイドカー インジェクションでは、ここで定義された構成はデフォルトのインジェクション テンプレートのオーバーライドとして扱われます。
たとえば、次の構成では、CPU リクエストの削減、ボリューム マウントの追加、preStop
フックの追加など、さまざまな設定をカスタマイズできます。
apiVersion: v1
kind: Pod
metadata:
name: example
spec:
containers:
- name: hello
image: alpine
- name: istio-proxy
image: auto
resources:
requests:
cpu: "200m"
memory: "256Mi"
limits:
cpu: "200m"
memory: "256Mi"
volumeMounts:
- mountPath: /etc/certs
name: certs
lifecycle:
preStop:
exec:
command: ["sleep", "10"]
volumes:
- name: certs
secret:
secretName: istio-certs
一般に、Pod 内の任意のフィールドを設定できます。ただし、特定のフィールドには注意が必要です。
- Kubernetes では、インジェクションの実行前に
image
フィールドを設定する必要があります。特定のイメージを設定してデフォルトをオーバーライドできますが、image
をauto
に設定することをおすすめします。これにより、サイドカー インジェクタで使用するイメージが自動的に選択されます。 containers
の一部のフィールドは、関連する設定に依存しています。たとえば、CPU の上限以下にする必要があります。両方のフィールドが正しく構成されていないと、Pod の起動に失敗することがあります。- Kubernetes では、Pod
spec
内のリソースにrequests
とlimits
の両方を設定できます。GKE Autopilot ではrequests
のみが考慮されます。詳細については、Autopilot でのリソース制限の設定をご覧ください。
また、特定のフィールドは Pod のアノテーションで構成できますが、上記の方法で設定をカスタマイズすることをおすすめします。次のアノテーションには特に注意してください。
- GKE Standard で
sidecar.istio.io/proxyCPU
が設定されている場合は、sidecar.istio.io/proxyCPULimit
を明示的に設定してください。明示的に設定しなければ、サイドカーの CPU 上限が無制限に設定されます。 - GKE Standard で
sidecar.istio.io/proxyMemory
が設定されている場合は、sidecar.istio.io/proxyMemoryLimit
を明示的に設定してください。明示的に設定しなければ、サイドカーのメモリ上限が無制限に設定されます。 - GKE Autopilot でアノテーションを使用してリソース
requests
とlimits
を構成すると、リソースがオーバープロビジョニングされる可能性があります。これを避けるには、イメージ テンプレート方式を使用します。Autopilot のリソース変更の例をご覧ください。
たとえば、次のリソースのアノテーション構成をご覧ください。
spec:
template:
metadata:
annotations:
sidecar.istio.io/proxyCPU: "200m"
sidecar.istio.io/proxyCPULimit: "200m"
sidecar.istio.io/proxyMemory: "256Mi"
sidecar.istio.io/proxyMemoryLimit: "256Mi"
コントロール プレーンの指標の確認
コントロール プレーンとデータプレーンのバージョンは、Metrics Explorer で確認できます。
構成が期待どおりに動作することを確認するには:
Google Cloud コンソールで、コントロール プレーンの指標を確認します。
ワークスペースを選択し、次のパラメータを使用してカスタムクエリを追加します。
- Resource type: Kubernetes Container
- Metric: Proxy Clients
- Filter:
container_name="cr-REVISION_LABEL"
- Group By:
revision
ラベルとproxy_version
ラベル - Aggregator: sum
- Period: 1 minute
Google マネージドのコントロール プレーンとクラスタ内コントロール プレーンの両方で Cloud Service Mesh を実行する場合は、そのコンテナ名を使用してそれぞれの指標を区別できます。たとえば、マネージド指標には
container_name="cr-asm-managed"
が含まれ、非マネージド指標にはcontainer_name="discovery"
が含まれます。両方の指標を表示するには、container_name="cr-asm-managed"
の Filter を削除します。Metrics Explorer で次のフィールドを調べて、コントロール プレーンとプロキシのバージョンを確認します。
- [revision] は、コントロール プレーンのバージョンを示します。
- [proxy_version] は
proxy_version
を示します。 - [value] は、接続されたプロキシの数を示します。
現在のチャンネルから Cloud Service Mesh バージョンへのマッピングについては、チャンネルごとの Cloud Service Mesh バージョンをご覧ください。
アプリケーションをマネージド Cloud Service Mesh に移行する
移行の準備を行う
クラスタ内 Cloud Service Mesh からマネージド Cloud Service Mesh にアプリケーションを移行するための準備を行うには、次の手順を行います。
Google 管理のコントロール プレーンを適用するの手順に沿ってツールを実行します。
(省略可)Google が管理するデータプレーンを使用する場合は、データプレーンの管理を有効にします。
kubectl annotate --overwrite controlplanerevision REVISION_TAG \ mesh.cloud.google.com/proxy='{"managed":"true"}'
アプリケーションを移行する
クラスタ内 Cloud Service Mesh からマネージド Cloud Service Mesh にアプリケーションを移行するには、次の手順を行います。
- 現在の名前空間のラベルを置き換えます。手順は、コントロール プレーンの実装によって異なります。
マネージド(TD)
- デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
マネージド(Istiod)
推奨: 次のコマンドを実行して、デフォルトのインジェクション ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
マネージド Istiod コントロール プレーンを使用している既存のユーザーの場合: デフォルトのインジェクションを使用することをおすすめしますが、リビジョンベースのインジェクションもサポートされています。次の手順を行います。
利用可能なリリース チャンネルを探すには、次のコマンドを実行します。
kubectl -n istio-system get controlplanerevision
出力は次のようになります。
NAME AGE asm-managed-rapid 6d7h
注: 上記のリストに 2 つのコントロール プレーンのリビジョンが表示されている場合は、1 つを削除します。クラスタに複数のコントロール プレーン チャネルを配置することはできません。
出力で、
NAME
列の値は、Cloud Service Mesh バージョンで使用可能なリリース チャンネルに対応するリビジョン ラベルです。リビジョン ラベルを名前空間に適用します。
kubectl label namespace NAMESPACE \ istio-injection- istio.io/rev=REVISION_LABEL --overwrite
名前空間で Deployment のローリング アップグレードを実行します。
kubectl rollout restart deployment -n NAMESPACE
アプリケーションをテストして、ワークロードが正しく機能することを確認します。
他の名前空間にワークロードがある場合は、各名前空間に対して前の手順を繰り返します。
マルチクラスタ設定にアプリケーションをデプロイした場合は、すべてのクラスタに Kubernetes と Istio の構成を複製します。ただし、その構成をクラスタの一部に制限する場合を除きます。特定のクラスタに適用される構成は、そのクラスタに対する信頼できる情報源です。
アプリケーションが期待どおりに動作していることを確認したら、すべての名前空間をマネージド コントロール プレーンに切り替えた後にクラスタ内の istiod
を削除できます。また、これらをバックアップとして残すこともできます。この場合、istiod
が自動的にスケールダウンし、リソースの使用量が少なくなります。削除するには、古いコントロール プレーンを削除するに進みます。
問題が発生した場合は、マネージド コントロール プレーンの問題を解決するを参照して問題を特定し、解決します。また、必要であれば以前のバージョンにロールバックできます。
古いコントロール プレーンを削除する
すべての名前空間で Google 管理のコントロール プレーンが使用されていることを確認したら、古いコントロール プレーンを削除できます。
kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true
自動インジェクションではなく istioctl kube-inject
を使用した場合や、追加のゲートウェイをインストールした場合は、コントロール プレーンの指標をチェックし、接続されているエンドポイントの数がゼロであることを確認します。
ロールバック
前のコントロール プレーン バージョンにロールバックする必要がある場合は、次の手順を行います。
コントロール プレーンの以前のバージョンで挿入されるワークロードを更新します。次のコマンドのリビジョン値
asm-191-1
はサンプルとして使用されています。このサンプル値は、前のコントロール プレーンのリビジョン ラベルに置き換えてください。kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
プロキシが Istio のバージョンになるように、Pod を再起動してインジェクションを再度トリガーします。
kubectl rollout restart deployment -n NAMESPACE
未使用時は、マネージド コントロール プレーンは自動的にゼロへスケーリングされ、リソースを使用しません。Webhook の変更とプロビジョニングはそのまま残り、クラスタの動作には影響しません。
これでゲートウェイが asm-managed
リビジョンに設定されました。ロールバックするには、Cloud Service Mesh のインストール コマンドを再実行します。これにより、クラスタ内コントロール プレーンを参照するゲートウェイが再デプロイされます。
kubectl -n istio-system rollout undo deploy istio-ingressgateway
正常に実行されると、次の出力が表示されます。
deployment.apps/istio-ingressgateway rolled back
アンインストール
名前空間で使用されていない場合、マネージド コントロール プレーンは自動的にゼロにスケールされます。詳細な手順については、Cloud Service Mesh をアンインストールするをご覧ください。
トラブルシューティング
マネージド コントロール プレーンを使用する際の問題を特定して解決するには、マネージド コントロール プレーンの問題を解決するをご覧ください。
次のステップ
- リリース チャンネルについて確認する。
IstioOperator
から移行する。- ゲートウェイをマネージド コントロール プレーンに移行する。
- 次のようなオプションのマネージド Cloud Service Meshh 機能を有効にする方法を確認する。