Überblick
Das verwaltete Anthos Service Mesh mit asmcli
ist eine verwaltete Steuerungsebene und eine verwaltete Datenebene, die sich einfach konfigurieren lassen. Google sorgt für ihre Zuverlässigkeit, Upgrades, Skalierung und Sicherheit in abwärtskompatibler Art und Weise. In dieser Anleitung wird erläutert, wie Sie Anwendungen mit asmcli
in einer Einzel- oder Multi-Cluster-Konfiguration einrichten oder zu einem verwalteten Anthos Service Mesh migrieren.
Informationen zu den unterstützten Features und Einschränkungen des verwalteten Anthos Service Mesh finden Sie unter Unterstützte Features für verwaltetes Anthos Service Mesh.
Vorbereitung
Sie sollten Folgendes bereits haben:
- Ein Cloud-Projekt
- Ein Cloud-Rechnungskonto
- Erforderliche Berechtigungen zum Bereitstellen von verwaltetem Anthos Service Mesh
- Das
asmcli
-Installationstool,kpt
und andere Tools, die unter Erforderliche Tools installieren angegeben sind
Für eine schnellere Bereitstellung muss für Ihre Cluster Workload Identity aktiviert sein. Wenn Workload Identity nicht aktiviert ist, wird es durch die Bereitstellung automatisch aktiviert.
Voraussetzungen
- Ein oder mehrere Cluster mit einer unterstützten Version von GKE in einer der unterstützten Regionen.
- Achten Sie darauf, dass Ihr Cluster genügend Kapazität für die erforderlichen Komponenten hat, die von Managed Anthos Service Mesh im Cluster installiert werden.
- Die Bereitstellung
mdp-controller
im Namespacekube-system
fordert die CPU an: 50 m, den Arbeitsspeicher: 128 Mi. - Das DaemonSet
istio-cni-node
im Namespacekube-system
fordert auf jedem Knoten die CPU an: 100 m, den Arbeitsspeicher: 100 Mi.
- Die Bereitstellung
- Prüfen Sie, ob der Clientcomputer, auf dem Sie Managed Anthos Service Mesh bereitstellen, eine Netzwerkverbindung zum API-Server hat.
- Ihre Cluster müssen in einer Flotte registriert sein.
Dieser Schritt kann separat vor der Bereitstellung oder im Rahmen der Bereitstellung erfolgen. Übergeben Sie dazu die Flags
--enable-registration
und--fleet-id
. In Ihrem Projekt muss das Service Mesh Flotten-Feature aktiviert sein. Sie können die Funktion im Rahmen der Bereitstellung aktivieren, indem Sie
--enable-gcp-components
übergeben oder den folgenden Befehl ausführen:gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
Dabei ist FLEET_PROJECT_ID die Projekt-ID des Flottenhostprojekts.
GKE Autopilot wird nur ab der GKE-Version 1.21.3 unterstützt.
Managed Anthos Service Mesh kann mehrere GKE-Cluster in einem Projekt mit einem einzelnen Projekt oder in einer Umgebung mit einem einzelnen Netzwerk mit mehreren Projekten verwenden.
- Wenn Sie Cluster zusammenführen, die sich nicht im selben Projekt befinden, müssen sie im selben Flottenhostprojekt registriert sein und die Cluster müssen sich zusammen in einer Konfiguration mit freigegebener VPC im selben Netzwerk befinden.
- Bei einer Multi-Cluster-Umgebung mit einem einzelnen Projekt kann das Flottenprojekt mit dem Clusterprojekt identisch sein. Weitere Informationen zu Flotten finden Sie unter Flottenübersicht.
- Für eine Umgebung mit mehreren Projekten empfehlen wir, die Flotte in einem anderen Projekt als den Clusterprojekten zu hosten. Wenn Ihre Organisationsrichtlinien und die vorhandene Konfiguration dies zulassen, empfehlen wir, das freigegebene VPC-Projekt als Flotten-Hostprojekt zu verwenden. Weitere Informationen finden Sie unter Cluster mit freigegebener VPC einrichten.
- Wenn Ihre Organisation VPC Service Controls verwendet und verwaltete Anthos Service Mesh in GKE-Cluster bereitstellen, müssen Sie auch die Schritte unter VPC Service Controls für Anthos Service Mesh ausführen.
Beschränkungen
Wir empfehlen Ihnen, die Liste der von verwaltetem Anthos Service Mesh unterstützten Features und Einschränkungen durchzugehen. Insbesondere ist Folgendes zu berücksichtigen:
Die
IstioOperator
API wird nicht unterstützt, da sie hauptsächlich den Zugriff auf Clusterkomponenten steuert.Migrationen von verwaltetem Anthos Service Mesh mit
asmcli
zu Anthos Service Mesh mit Flotten-API werden nicht unterstützt. Ebenso wird das Konfigurieren des verwalteten Anthos Service Mesh mit der Fleet API von--management manual
bis--management automatic
nicht unterstützt.Bei GKE Autopilot-Clustern wird die projektübergreifende Einrichtung nur mit GKE 1.23 oder höher unterstützt.
Zur Anpassung an das GKE Autopilot-Ressourcenlimit werden für GKE Autopilot-Cluster die standardmäßigen Proxy-Ressourcenanfragen und -limits auf 500 m CPU und 512 MB Arbeitsspeicher festgelegt. Sie können die Standardwerte mit einer benutzerdefinierten Injektion überschreiben.
Die tatsächlichen Features, die für das verwaltete Anthos Service Mesh verfügbar sind, hängen von der Release-Version ab. Weitere Informationen finden Sie in der vollständigen Liste der von Anthos Service Mesh unterstützten Features und Einschränkungen.
Während des Bereitstellungsprozesses für eine von verwaltete Steuerungsebene werden Istio-CRDs, die dem ausgewählten Kanal entsprechen, im angegebenen Cluster bereitgestellt. Wenn im Cluster Istio-CRDs vorhanden sind, werden sie überschrieben.
Das Istio-CNI ist nicht mit GKE Sandbox kompatibel. Managed Anthos Service Mesh im Autopilot-Modus funktioniert daher nicht mit GKE Sandbox, da verwaltetes Istio CNI erforderlich ist.
Das
asmcli
-Tool muss Zugriff auf den GKE-Endpunkt (Google Kubernetes Engine) haben. Sie können den Zugriff über einen "Jump"-Server konfigurieren, z. B. eine Compute Engine-VM in der Virtual Private Cloud (VPC), die bestimmten Zugriff gewährt.
Hinweise
gcloud konfigurieren
Führen Sie die folgenden Schritte auch dann aus, wenn Sie Cloud Shell verwenden.
Authentifizieren Sie sich mit dem Google Cloud CLI:
gcloud auth login --project PROJECT_ID
Aktualisieren Sie die Komponenten:
gcloud components update
Konfigurieren Sie
kubectl
so, dass es auf den Cluster verweist.gcloud container clusters get-credentials CLUSTER_NAME \ --zone CLUSTER_LOCATION \ --project PROJECT_ID
Installationstool herunterladen
Laden Sie die neueste Version des Tools in das aktuelle Arbeitsverzeichnis herunter:
curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
Machen Sie das Tool ausführbar:
chmod +x asmcli
Jeden Cluster konfigurieren
Führen Sie die folgenden Schritte aus, um ein verwaltetes Anthos Service Mesh für jeden Cluster in Ihrem Mesh-Netzwerk zu konfigurieren.
Verwaltete Steuerungsebene anwenden
Bevor Sie die verwaltete Steuerungsebene anwenden können, müssen Sie einen Release-Channel auswählen.
Führen Sie das Installationstool für jeden Cluster aus, der verwaltetes Anthos Service Mesh verwendet. Wir empfehlen, die beiden folgenden Optionen anzugeben:
--enable-registration --fleet_id FLEET_PROJECT_ID
Diese beiden Flags registrieren den Cluster in einer Flotte, wobei FLEET_ID die Projekt-ID des Fleet-Hostprojekts ist. Bei Verwendung eines einzelnen Projekts sind FLEET_PROJECT_ID mit PROJECT_ID identisch. Das Flotten-Hostprojekt und das Clusterprojekt sind identisch. Bei komplexeren Konfigurationen wie mehreren Projekten empfehlen wir die Verwendung eines separaten Flotten-Hostprojekts.--enable-all
Dieses Flag aktiviert sowohl die erforderlichen Komponenten als auch die Registrierung.
Das asmcli
-Tool konfiguriert die verwaltete Steuerungsebene direkt mit Tools und Logik im CLI-Tool. Folgen Sie der nachstehenden Anleitungen je nach Ihrer bevorzugten Zertifizierungsstelle.
Zertifizierungsstellen
Wählen Sie eine Zertifizierungsstelle für Ihr Mesh aus.
Mesh CA
Führen Sie den folgenden Befehl aus, um die Steuerungsebene mit Standardfeatures und Mesh CA zu installieren. Geben Sie Ihre Werte in die angegebenen Platzhalter ein. Ersetzen Sie RELEASE_CHANNEL durch den entsprechenden Channel: regular
, stable
oder rapid
.
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all
CA-Dienst
- Führen Sie die Schritte unter Certificate Authority Service konfigurieren aus.
- Führen Sie den folgenden Befehl aus, um die Steuerungsebene mit Standardfeatures und Certificate Authority Service zu installieren.
Geben Sie Ihre Werte in die angegebenen Platzhalter ein. Ersetzen Sie RELEASE_CHANNEL durch den entsprechenden Channel:
regular
,stable
oderrapid
.
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all \
--ca gcp_cas \
--ca_pool pool_name
Das Tool lädt alle Dateien zum Konfigurieren der verwalteten Steuerungsebene in das angegebene Verzeichnis --output_dir
herunter und installiert das istioctl
-Tool und Beispielanwendungen. Bei den Schritten in diesem Leitfaden wird davon ausgegangen, dass Sie istioctl
über den --output_dir
-Speicherort ausführen, den Sie bei der Ausführung von asmcli install
festgelegt haben, wobei istioctl
im Unterverzeichnis <Istio release dir>/bin
vorhanden ist.
Wenn Sie asmcli
im selben Cluster noch einmal ausführen, wird die vorhandene Konfiguration der Steuerungsebene überschrieben. Achten Sie darauf, dass Sie dieselben Optionen und Flags angeben, wenn Sie dieselbe Konfiguration verwenden möchten.
Bereitstellung der Steuerungsebene prüfen
Prüfen Sie nach einigen Minuten, ob der Status der Steuerungsebene ACTIVE
lautet:
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
Die Ausgabe sieht etwa so aus:
membershipStates: projects/746296320118/locations/us-central1/memberships/demo-cluster-1: servicemesh: controlPlaneManagement: details: - code: REVISION_READY details: 'Ready: asm-managed' state: ACTIVE ... state: code: OK description: 'Revision(s) ready for use: asm-managed.'
Wenn der Status ACTIVE
nicht innerhalb weniger Minuten erreicht, finden Sie unter Status der verwalteten Steuerungsebene prüfen weitere Informationen zu möglichen Fehlern.
Zero-Touch-Upgrades
Sobald die verwaltete Steuerungsebene installiert ist, führt Google ein Upgrade automatisch durch, wenn neue Releases oder Patches verfügbar sind.
Verwaltete Datenebene
Wenn Sie ein verwaltetes Anthos Service Mesh verwenden, verwaltet Google die Upgrades Ihrer Proxys vollständig, sofern Sie es nicht auf Namespace-, Arbeitslast- oder Überarbeitungsebene deaktivieren.
Mit der verwalteten Datenebene werden die Sidecar-Proxys und eingefügten Gateways automatisch in Verbindung mit der verwalteten Steuerungsebene aktualisiert. Dazu werden Arbeitslasten neu gestartet, um neue Versionen des Proxys wieder einzufügen. Dies ist in der Regel 1–2 Wochen nach dem Upgrade der verwalteten Steuerungsebene abgeschlossen.
Wenn die Proxyverwaltung deaktiviert ist, wird sie durch den natürlichen Lebenszyklus der Pods im Cluster gesteuert und muss vom Nutzer manuell ausgelöst werden, um die Aktualisierungsrate zu steuern.
Die verwaltete Datenebene aktualisiert Proxys, indem sie Pods entfernt, die frühere Versionen des Proxys ausführen. Die Bereinigungen erfolgen schrittweise unter Berücksichtigung des Budgets für Pod-Störungen und zur Kontrolle der Änderungsrate.
Die verwaltete Datenebene verwaltet nicht Folgendes:
- Nicht eingefügte Pods
- Manuell eingefügte Pods
- Jobs
- StatefulSets
- DaemonSets
Wenn Sie ein verwaltetes Anthos Service Mesh auf einem älteren Cluster bereitgestellt haben, können Sie die Verwaltung der Datenebene für den gesamten Cluster aktivieren:
kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'
Alternativ können Sie die verwaltete Datenebene selektiv für eine bestimmte Version, einen Namespace oder einen Pod der Steuerungsebene aktivieren, indem Sie sie mit derselben Annotation annotieren. Wenn Sie einzelne Komponenten selektiv steuern, wird in der Rangfolge die Überarbeitung der Steuerungsebene, dann der Namespace und dann der Pod berücksichtigt.
Es kann bis zu zehn Minuten dauern, bis der Dienst mit der Verwaltung der Proxys im Cluster bereit ist. Führen Sie den folgenden Befehl aus, um den Status zu prüfen:
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
Erwartete Ausgabe
membershipStates:
projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
servicemesh:
dataPlaneManagement:
details:
- code: OK
details: Service is running.
state: ACTIVE
state:
code: OK
description: 'Revision(s) ready for use: asm-managed-rapid.'
Wenn der Dienst nicht innerhalb von zehn Minuten bereit ist, lesen Sie die Informationen unter Status der verwalteten Datenebene.
Verwaltete Datenebene deaktivieren (optional)
Wenn Sie ein verwaltetes Anthos Service Mesh auf einem neuen Cluster bereitstellen, können Sie die verwaltete Datenebene vollständig oder für einzelne Namespaces oder Pods deaktivieren. Die verwaltete Datenebene ist für vorhandene Cluster, in denen sie standardmäßig oder manuell deaktiviert war, weiterhin deaktiviert.
Wenn Sie die verwaltete Datenebene auf Clusterebene deaktivieren und die Sidecar-Proxys wieder selbst verwalten möchten, ändern Sie die Annotation:
kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"false"}'
So deaktivieren Sie die verwaltete Datenebene für einen Namespace:
kubectl annotate --overwrite namespace NAMESPACE \
mesh.cloud.google.com/proxy='{"managed":"false"}'
So deaktivieren Sie die verwaltete Datenebene für einen Pod:
kubectl annotate --overwrite pod POD_NAME \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Wartungsbenachrichtigungen aktivieren
Sie können bis zu eine Woche vor der geplanten Wartung über die bevorstehende Wartung der verwalteten Datenebene informiert werden. Wartungsbenachrichtigungen werden nicht standardmäßig gesendet. Sie müssen außerdem ein GKE-Wartungsfenster konfigurieren, bevor Sie Benachrichtigungen erhalten können. Wenn diese Option aktiviert ist, werden Benachrichtigungen mindestens zwei Tage vor dem Upgradevorgang gesendet.
So aktivieren Sie Wartungsbenachrichtigungen für verwaltete Datenebenen:
Öffnen Sie die Seite Kommunikation.
Wählen Sie in der Zeile Anthos Service Mesh-Upgrade in der Spalte E-Mail das Optionsfeld aus, um Wartungsbenachrichtigungen zu aktivieren (AN).
Jeder Nutzer, der Benachrichtigungen erhalten möchte, muss separat aktiviert werden. Wenn Sie einen E-Mail-Filter für diese Benachrichtigungen festlegen möchten, lautet der Betreff:
Upcoming upgrade for your Anthos Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME"
.
Das folgende Beispiel zeigt eine typische Wartungsbenachrichtigung für die verwaltete Datenebene:
Betreff: Bevorstehendes Upgrade für Ihren ASM-Cluster "
<location/cluster-name>
"Hallo Anthos Service Mesh-Nutzer,
Für die Anthos Service Mesh-Komponenten in Ihrem Cluster ${instance_id} (https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id}) wird ein Upgrade auf ${scheduled_date_human_ lesbar} bei ${scheduled_time_human_ lesbar} geplant.
In den Versionshinweisen (https://cloud.google.com/service-mesh/docs/release-notes) finden Sie weitere Informationen zu diesem neuen Update.
Wenn diese Wartung gekündigt wird, erhalten Sie eine weitere Benachrichtigung.
Viele Grüße
Ihr Anthos Service Mesh-Team
(c) 2022 Google LLC, 1600 Amphitheatre Parkway, Mountain View, CA 94043, USA Mit dieser Servicemitteilung informieren wir Sie über wichtige Änderungen in Bezug auf die Google Cloud Platform oder Ihr Konto. Sie können Benachrichtigungen zu Wartungsfenstern deaktivieren, indem Sie Ihre Einstellungen anpassen: https://console.cloud.google.com/user-preferences/communication?project=${project_id}
Endpunkterkennung konfigurieren (nur für Installationen mit mehreren Clustern)
Bevor Sie fortfahren, sollten Sie bereits verwaltetes Anthos Service Mesh auf jedem Cluster konfiguriert haben, wie in den vorherigen Schritten beschrieben. Sie müssen nicht angeben, dass ein Cluster ein primärer Cluster ist, dies ist das Standardverhalten.
Außerdem müssen Sie asmcli
heruntergeladen haben (nur wenn Sie Ihre Konfiguration mit der Beispielanwendung prüfen möchten) und die Projekt- und Clustervariablen festlegen.
Öffentliche Cluster
Endpunkterkennung zwischen öffentlichen Clustern konfigurieren
Wenn Sie mit öffentlichen Clustern (nicht privaten Clustern) arbeiten, haben Sie folgende Möglichkeiten: Endpunkterkennung zwischen öffentlichen Clustern konfigurieren oder noch einfacher Endpunkterkennung zwischen öffentlichen Clustern aktivieren.
Private Cluster
Endpunkterkennung zwischen privaten Clustern konfigurieren
Wenn Sie private GKE-Cluster verwenden, müssen Sie den Endpunkt der Clustersteuerungsebene als öffentlichen Endpunkt statt als privaten Endpunkt konfigurieren. Weitere Informationen finden Sie unter Endpunkterkennung zwischen privaten Clustern konfigurieren.
Eine Beispielanwendung mit zwei Clustern finden Sie im HelloWorld-Dienstbeispiel.
Anwendungen bereitstellen
Verwenden Sie zum Bereitstellen von Anwendungen entweder das Label des Kanals, den Sie während der Installation konfiguriert haben, oder istio-injection=enabled
, wenn Sie Standard-Injektionslabels verwenden.
Standard-Injektionslabels
kubectl label namespace NAMESPACE istio-injection=enabled istio.io/rev- --overwrite
Überarbeitungslabel
Entfernen Sie vor dem Bereitstellen von Anwendungen alle vorherigen istio-injection
-Labels aus ihren Namespaces und legen Sie stattdessen das Label istio.io/rev=REVISION_LABEL
fest.
Wenn Sie es in ein bestimmtes Überarbeitungslabel ändern möchten, klicken Sie auf REVISION_LABEL
und ersetzen Sie es durch das entsprechende Label: asm-managed-rapid
für Rapid, asm-managed
für Regular oder asm-managed-stable
für Stabile.
Das Überarbeitungslabel entspricht einer Release-Version:
Überarbeitungslabel | Kanal |
---|---|
asm-managed |
Regulär |
asm-managed-rapid |
Rapid |
asm-managed-stable |
Stabile Version |
kubectl label namespace NAMESPACE istio-injection- istio.io/rev=REVISION_LABEL --overwrite
Sie haben nun das verwaltete Anthos Service Mesh erfolgreich konfiguriert. Wenn Arbeitslasten in beschrifteten Namespaces vorhanden sind, starten Sie diese neu, damit sie Proxys eingeschleust werden.
Jetzt können Sie die Anwendungen oder die Bookinfo-Beispielanwendung bereitstellen.
Wenn Sie eine Anwendung in einer Multi-Cluster-Konfiguration bereitstellen, replizieren Sie die Kubernetes- und Steuerungsebene auf allen Clustern, sofern Sie diese bestimmte Konfiguration nicht auf eine Teilmenge von Clustern beschränken. Die auf einen bestimmten Cluster angewendete Konfiguration ist die "Source of Truth" für diesen Cluster.
Injektion anpassen (optional)
Diese Optionen können für einzelne Pods durch eine Konfiguration pro Pod überschrieben werden.
Dazu fügen Sie dem Pod einen istio-proxy
-Container hinzu. Die Sidecar-Injektion behandelt alle hier definierten Konfigurationen als Überschreibung der Standardvorlage für die Injektion.
Mit der folgenden Konfiguration werden beispielsweise verschiedene Einstellungen angepasst, einschließlich der Verringerung der CPU-Anfragen sowie des Hinzufügens einer Volume-Bereitstellung und eines preStop
-Hooks:
apiVersion: v1
kind: Pod
metadata:
name: example
spec:
containers:
- name: hello
image: alpine
- name: istio-proxy
image: auto
resources:
requests:
cpu: "200m"
memory: "256Mi"
limites:
cpu: "200m"
memory: "256Mi"
volumeMounts:
- mountPath: /etc/certs
name: certs
lifecycle:
preStop:
exec:
command: ["sleep", "10"]
volumes:
- name: certs
secret:
secretName: istio-certs
Grundsätzlich kann jedes Feld in einem Pod festgelegt werden. Bei bestimmten Feldern ist jedoch Vorsicht geboten:
- Bei Kubernetes muss das Feld
image
festgelegt werden, bevor die Injektion ausgeführt wird. Sie können das Standard-Image durch ein bestimmtes Image überschreiben. Es wird jedoch empfohlen,image
aufauto
zu setzen. Dadurch wird das zu verwendende Image vom Sidecar-Injektor automatisch ausgewählt. - Einige Felder in
containers
sind abhängig von zugehörigen Einstellungen. Beispielsweise muss die CPU-Anfrage unter dem CPU-Limit liegen. Wenn beide Felder nicht ordnungsgemäß konfiguriert sind, kann der Pod möglicherweise nicht gestartet werden. - Mit Kubernetes können Sie sowohl
requests
als auchlimits
für Ressourcen inPodSpec
festlegen. GKE Autopilot berücksichtigt nurrequests
. Weitere Informationen finden Sie unter Ressourcenlimits in Autopilot festlegen.
Darüber hinaus lassen sich bestimmte Felder durch Anmerkungen im Pod konfigurieren. Es wird jedoch empfohlen, den obigen Ansatz zum Anpassen der Einstellungen zu verwenden. Bei bestimmten Anmerkungen ist besondere Vorsicht geboten:
- Wenn für GKE Standard
sidecar.istio.io/proxyCPU
festgelegt ist, müssen Siesidecar.istio.io/proxyCPULimit
explizit festlegen. Andernfalls wird das CPU-Limit der Sidecar-Datei als unbegrenzt festgelegt. - Wenn für GKE Standard
sidecar.istio.io/proxyMemory
festgelegt ist, müssen Siesidecar.istio.io/proxyMemoryLimit
explizit festlegen. Andernfalls wird das Arbeitsspeicherlimit der Sidecar-Datei als unbegrenzt festgelegt. - Für GKE Autopilot kann das Konfigurieren der Ressourcen
requests
undlimits
mit Annotationen zu einer Überdimensionierung von Ressourcen führen. Nutzen Sie die Bildvorlage, die Sie vermeiden sollten. Beispiele für Ressourcenänderungen in Autopilot
Hier ein Beispiel für die Konfiguration der Annotationen für Ressourcen:
spec:
template:
metadata:
annotations:
sidecar.istio.io/proxyCPU: "200m"
sidecar.istio.io/proxyCPULimit: "200m"
sidecar.istio.io/proxyMemory: "256Mi"
sidecar.istio.io/proxyMemoryLimit: "256Mi"
Messwerte der Steuerungsebene prüfen
Sie können die Version der Steuerungsebene und der Datenebene im Metrics Explorer ansehen.
So prüfen Sie, ob Ihre Konfiguration ordnungsgemäß funktioniert:
Sehen Sie sich in der Google Cloud Console die Messwerte der Steuerungsebene an:
Wählen Sie Ihren Arbeitsbereich aus und fügen Sie mit den folgenden Parametern eine benutzerdefinierte Abfrage hinzu:
- Ressourcentyp: Kubernetes-Container
- Messwert: Proxy-Clients
- Filter:
container_name="cr-REVISION_LABEL"
- Gruppieren nach: Label
revision
undproxy_version
Label - Aggregator: Summe
- Zeitraum: 1 Minute
Wenn Sie Anthos Service Mesh sowohl mit einer von Google verwalteten als auch mit einer clusterinternen Steuerungsebene ausführen, können Sie die Messwerte anhand ihres Containernamens unterscheiden. Beispielsweise haben verwaltete Messwerte den Wert
container_name="cr-asm-managed"
, während nicht verwatete Messwertecontainer_name="discovery"
haben. Entfernen Sie den Filter fürcontainer_name="cr-asm-managed"
, um Messwerte aus beiden anzuzeigen.Prüfen Sie die Version der Steuerungsebene und die Proxyversion anhand der folgenden Felder in Metrics Explorer:
- Das Feld Überarbeitung gibt die Version der Steuerungsebene an.
- Das Feld proxy_version gibt die
proxy_version
an. - Das Feld Wert gibt die Anzahl der verbundenen Proxys an.
Informationen zum aktuellen Kanal der Anthos Service Mesh-Versionszuordnung finden Sie unter Anthos Service Mesh-Versionen pro Kanal.
Anwendungen zu verwaltetem Anthos Service Mesh migrieren
Migration vorbereiten
Führen Sie die folgenden Schritte aus, um Anwendungen von Anthos Service Mesh im Cluster zu einem verwalteten Anthos Service Mesh zu migrieren:
Führen Sie das Tool wie unter Von Google verwaltete Steuerungsebene anwenden beschrieben aus.
(Optional) Wenn Sie die von Google verwaltete Datenebene verwenden möchten, aktivieren Sie die Verwaltung der Datenebene:
kubectl annotate --overwrite controlplanerevision REVISION_TAG \ mesh.cloud.google.com/proxy='{"managed":"true"}'
Anwendungen migrieren
Führen Sie die folgenden Schritte aus, um Anwendungen von Anthos Service Mesh im Cluster zu einem verwalteten Anthos Service Mesh zu migrieren:
Ersetzen Sie das aktuelle Namespace-Label. Welche Schritte erforderlich sind, hängt davon ab, ob Sie Standard-Injektionslabels (Beispiel:
istio-injection enabled
) oder die Überarbeitungslabel verwenden.Standard-Injektionslabels
Führen Sie den folgenden Befehl aus, um das Standard-Tag in die verwaltete Überarbeitung zu verschieben:
istioctl tag set default --revision REVISION_LABEL
Führen Sie den folgenden Befehl aus, um den Namespace mit
istio-injection=enabled
zu kennzeichnen, falls noch nicht geschehen:kubectl label namespace NAMESPACE istio-injection=enabled istio.io/rev- \ --overwrite
Überarbeitungslabel
Wenn Sie das Label
istio.io/rev=REVISION_LABEL
verwendet haben, führen Sie den folgenden Befehl aus:kubectl label namespace NAMESPACE istio-injection- istio.io/rev=REVISION_LABEL \ --overwrite
So führen Sie ein Rolling Upgrade von Bereitstellungen im Namespace durch:
kubectl rollout restart deployment -n NAMESPACE
Testen Sie Ihre Anwendung, um zu prüfen, ob die Arbeitslasten ordnungsgemäß funktionieren.
Wenn Sie Arbeitslasten in anderen Namespaces haben, wiederholen Sie die vorherigen Schritte für jeden Namespace.
Wenn Sie die Anwendung in einer Multi-Cluster-Einrichtung bereitgestellt haben, replizieren Sie die Kubernetes- und Istio-Konfiguration in allen Clustern, es sei denn, Sie möchten die Konfiguration auf eine Teilmenge von Clustern beschränken. Die auf einen bestimmten Cluster angewendete Konfiguration ist die "Source of Truth" für diesen Cluster.
Prüfen Sie, ob die Messwerte wie erwartet angezeigt werden. Führen Sie dazu die Schritte unter Messwerte der Steuerungsebene prüfen aus.
Wenn Sie mit der Anwendung zufrieden sind, können Sie den clusterinternen istiod
entfernen, nachdem Sie alle Namespaces für die verwaltete Steuerungsebene geändert haben oder diese als Sicherung beibehalten. istiod
wird automatisch herunterskaliert, um weniger Ressourcen zu verwenden. Fahren Sie mit Alte Steuerungsebene löschen fort.
Falls Probleme auftreten, können Sie diese bestimmen und beheben. Dazu verwenden Sie die Informationen unter Probleme mit der verwalteten Steuerungsebene beheben und führen bei Bedarf ein Rollback auf die vorherige Version durch.
Alte Steuerungsebene löschen
Nachdem Sie die Installation abgeschlossen und bestätigt haben, dass alle Namespaces die von Google verwaltete Steuerungsebene verwenden, können Sie die alte Steuerungsebene löschen.
kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true
Wenn Sie istioctl kube-inject
anstelle der automatischen Einschleusung verwendet oder zusätzliche Gateways installiert haben, prüfen Sie die Messwerte für die Steuerungsebene und achten Sie darauf, dass die Anzahl der verbundenen Endpunkte null ist.
Rollback durchführen
Führen Sie die folgenden Schritte aus, um ein Rollback auf die vorherige Version der Steuerungsebene durchzuführen:
Aktualisieren Sie Arbeitslasten, damit die vorherige Version der Steuerungsebene eingeschleust werden kann: Im folgenden Befehl wird der Überarbeitungswert
asm-191-1
nur als Beispiel verwendet. Ersetzen Sie den Beispielwert durch das Überarbeitungslabel der vorherigen Steuerungsebene.kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
Starten Sie die Pods neu, um die erneute Injektion auszulösen, damit die Proxys die vorherige Version erhalten:
kubectl rollout restart deployment -n NAMESPACE
Die verwaltete Steuerungsebene wird automatisch auf null skaliert und verwendet keine Ressource, wenn sie nicht verwendet wird. Die geänderten Webhooks und die Bereitstellung bleiben erhalten und wirken sich nicht auf das Clusterverhalten aus.
Für das Gateway ist jetzt die Überarbeitung asm-managed
festgelegt. Führen Sie den Anthos Service Mesh-Installationsbefehl noch einmal aus, um ein Rollback durchzuführen. Dadurch wird das Gateway wieder bereitgestellt, das auf Ihre clusterinterne Steuerungsebene verweist:
kubectl -n istio-system rollout undo deploy istio-ingressgateway
Bei Erfolg können Sie diese Ausgabe erwarten:
deployment.apps/istio-ingressgateway rolled back
Deinstallieren
Die verwaltete Steuerungsebene wird automatisch auf null skaliert, wenn sie nicht von Namespaces verwendet wird. Eine ausführliche Anleitung finden Sie unter Anthos Service Mesh deinstallieren.
Fehlerbehebung
Informationen zum Identifizieren und Beheben von Problemen bei der Verwendung der verwalteten Steuerungsebene finden Sie unter Probleme mit der verwalteten Steuerungsebene beheben.
Nächste Schritte
- Mehr über Release-Versionen erfahren
- Von
IstioOperator
migrieren - Gateway zur verwalteten Steuerungsebene migrieren
- Optionale verwaltete Anthos Service Mesh-Features aktivieren, z. B.: