Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Auf dieser Seite wird erläutert, wie eine Umgebung aktualisiert werden kann.
Updatevorgänge
Wenn Sie die Parameter der Umgebung ändern, z. B. eine neue Skalierung festlegen Leistungsparameter oder die Installation benutzerdefinierter PyPI-Pakete, Aktualisierungen der Umgebung.
Nach Abschluss dieses Vorgangs sind die Änderungen in der zu verbessern.
Sie können für eine einzelne Cloud Composer-Umgebung nur eine starten gleichzeitig aktualisieren. Sie müssen warten, bis ein Aktualisierungsvorgang abgeschlossen ist bevor Sie einen anderen Umgebungsvorgang starten.
CPU-Beschränkungen für Trigger
Cloud Composer 2.4.4 führt einen anderen Ansatz zur Leistungsskalierung für die Komponente Airflow-Trigger ein, der für alle Cloud Composer 2-Versionen gilt.
Vor Version 2.4.4 konnten Cloud Composer-Umgebungen Verwenden Sie maximal 1 oder 2 Trigger. Nach der Änderung können Sie bis zu 10 Trigger pro Umgebung haben, aber jeder Trigger ist auf maximal eine vCPU beschränkt.
Umgebungsaktualisierungen schlagen fehl, wenn für Ihre Umgebung mehr als eine vCPU pro Auslöser konfiguriert ist. Sie müssen die Konfiguration so anpassen, dass das Limit von einer vCPU eingehalten wird, um Updates für andere Komponenten auszuführen.
Weitere Informationen finden Sie unter:
- Trigger-Ressourcenzuordnung konfigurieren
- Triggeranzahl anpassen
- Fehlerbehebung beim Upgrade einer Umgebung – CPU des Triggers überschritten
Auswirkungen von Updates auf laufende Airflow-Aufgaben
Wenn Sie einen Aktualisierungsvorgang ausführen, werden Airflow-Planer und für Worker in Ihrer Umgebung ist möglicherweise ein Neustart erforderlich. In diesem Fall werden alle derzeit laufenden Aufgaben beendet. Nach Abschluss des Aktualisierungsvorgangs plant Airflow je nach Konfiguration der Wiederholungen für Ihre DAGs einen erneuten Versuch für diese Aufgaben.
Die folgenden Änderungen bedingen Beendigung der Airflow-Aufgabe:
- Upgrade der Umgebung auf eine neue Version
- Benutzerdefinierte PyPI-Pakete hinzufügen, ändern oder löschen
- Cloud Composer-Umgebungsvariablen ändern
- Überschreibungen von Airflow-Konfigurationsoptionen hinzufügen oder entfernen oder ihre Werte.
- CPU, Arbeitsspeicher oder Speicherplatz von Airflow-Workern ändern
- Die maximale Anzahl der Airflow-Worker wird reduziert, wenn der neue Wert niedriger ist als die Anzahl der aktuell ausgeführten Worker. Beispiel: In einer Umgebung werden derzeit drei Worker ausgeführt und die maximale Anzahl wird auf zwei reduziert.
- Ausfallsicherheitsmodus der Umgebung ändern
Die folgenden Änderungen führen nicht dazu, dass Airflow-Aufgaben beendet werden:
- Erstellen, Aktualisieren oder Löschen einer DAG (kein Aktualisierungsvorgang)
- Pausieren oder Fortsetzen von DAGs (kein Aktualisierungsvorgang)
- Ändern von Airflow-Variablen (kein Aktualisierungsvorgang)
- Airflow-Verbindungen ändern (kein Aktualisierungsvorgang)
- Dataplex Data Lineage-Integration aktivieren oder deaktivieren.
- Größe der Umgebung ändern
- Anzahl der Planer ändern
- CPU, Arbeitsspeicher oder Speicherplatz der Airflow-Planer ändern
- Anzahl der Trigger ändern
- CPU, Arbeitsspeicher oder Speicherplatz von Airflow-Triggern ändern
- CPU, Arbeitsspeicher oder Speicher des Airflow-Webservers ändern
- Mindestanzahl der Worker erhöhen oder verringern
- Reduzieren Sie die maximale Anzahl von Airflow-Workern. Beispiel: In einer Umgebung werden derzeit zwei Worker ausgeführt und die maximale Anzahl wird auf drei reduziert.
- Wartungsfenster ändern
- Einstellungen für geplante Snapshots ändern
- Umgebungslabels ändern
Mit Terraform aktualisieren
Führen Sie terraform plan
vor terraform apply
aus, um zu sehen, ob Terraform eine neue
anstatt sie zu aktualisieren.
Hinweise
Prüfen Sie, ob Ihr Konto, das Dienstkonto Ihrer Umgebung und dem Cloud Composer-Dienst-Agent-Konto in Ihrem Projekt Erforderliche Berechtigungen:
Ihr Konto muss eine Rolle haben, die Aktualisierungen der Umgebung auslösen.
Das Dienstkonto Ihrer Umgebung muss eine Rolle mit ausreichenden Berechtigungen zum Ausführen von Aktualisierungsvorgängen haben.
Das Cloud Composer-Dienst-Agent-Konto muss Berechtigungen zum Erstellen von Bindungen zwischen dem Dienstkonto Ihrer Umgebung und dem Kubernetes-Dienstkonto des Clusters Ihrer Umgebung haben.
Der Befehl
gcloud composer environments update
wird beendet, wenn der abgeschlossen ist. Mit dem Flag--async
vermeiden Sie Wartezeiten für um den Vorgang abzuschließen.
Umgebungen aktualisieren
Weitere Informationen zum Aktualisieren Ihrer Umgebung finden Sie auf anderen Dokumentationsseiten zu bestimmten Aktualisierungsvorgängen. Beispiel:
- Airflow-Konfigurationsoptionen überschreiben
- Umgebungsvariablen festlegen
- Python-Abhängigkeiten installieren
- Umgebungen skalieren
- Autorisierte Netzwerke konfigurieren
- Umgebungen auf hohe Ausfallsicherheit umstellen
Umgebungsdetails ansehen
Console
Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.
Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.
gcloud
Führen Sie folgenden Befehl gcloud
aus:
gcloud composer environments describe ENVIRONMENT_NAME \
--location LOCATION
Ersetzen Sie:
ENVIRONMENT_NAME
durch den Namen der Umgebung.LOCATION
durch die Region, in der sich die Umgebung befindet.
API
Erstellen Sie eine API-Anfrage environments.get
.
Beispiel:
GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment
Terraform
Führen Sie den Befehl terraform state show
für die Ressource Ihrer Umgebung aus.
Der Name der Terraform-Ressource Ihrer Umgebung kann sich vom Namen Ihrer Umgebung unterscheiden.
terraform state show google_composer_environment.RESOURCE_NAME
Ersetzen Sie:
RESOURCE_NAME
durch den Namen der Ressource Ihrer Umgebung.
Änderungen durch Updates rückgängig machen
In seltenen Fällen kann ein Aktualisierungsvorgang unterbrochen werden (z. B. aufgrund eines Zeitlimits) und die angeforderten Änderungen werden möglicherweise nicht in allen Umgebungskomponenten (z. B. dem Airflow-Webserver) rückgängig gemacht.
Ein Update kann beispielsweise das Installieren oder Entfernen zusätzlicher PyPI-Module, das Neudefinieren oder Definieren einer neuen Airflow- oder Cloud Composer-Umgebungsvariablen oder das Ändern einiger Airflow-Parameter umfassen.
Eine solche Situation kann auftreten, wenn ein Aktualisierungsvorgang ausgelöst wird, wenn andere ausgeführte Vorgänge, z. B. ein Autoscaling oder einen Wartungsvorgang.
In diesem Fall empfehlen wir, den Vorgang zu wiederholen.
Dauer von Aktualisierungs- oder Upgradevorgängen
Die meisten Aktualisierungs- oder Upgradevorgänge erfordern einen Neustart von Airflow-Komponenten wie Airflow-Planern, ‑Workern und ‑Webservern.
Nach dem Neustart einer Komponente muss sie initialisiert werden. Während der Initialisierung laden Airflow-Planer und -Worker den Inhalt der Ordner /dags
und /plugins
aus dem Bucket der Umgebung herunter. Die Synchronisierung von Dateien mit Airflow-Planern und ‑Workern erfolgt nicht sofort und hängt von der Gesamtgröße und der Anzahl aller Objekte in diesen Ordnern ab.
Wir empfehlen, nur DAG- und Plug-in-Dateien in /dags
und /plugins
beizubehalten.
und entfernen Sie alle anderen Dateien. Zu viele Daten
in den Ordnern /dags
und /plugins
kann die Initialisierung von Airflow verlangsamen
und in bestimmten Fällen die Initialisierung nicht möglich machen.
Wir empfehlen, weniger als 30 MB an Daten in den Ordnern /dags
und /plugins
aufzubewahren und auf keinen Fall die Größe von 100 MB zu überschreiten.
Weitere Informationen finden Sie unter: