Umgebungen aktualisieren

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Auf dieser Seite wird beschrieben, wie eine Umgebung aktualisiert werden kann.

Updatevorgänge

Wenn Sie Parameter Ihrer Umgebung ändern, z. B. neue Skalierungs- und Leistungsparameter angeben oder benutzerdefinierte PyPI-Pakete installieren, wird Ihre Umgebung aktualisiert.

Nach Abschluss dieses Vorgangs sind die Änderungen in der zu verbessern.

Sie können für eine einzelne Cloud Composer-Umgebung nur eine starten gleichzeitig aktualisieren. Sie müssen warten, bis ein Aktualisierungsvorgang abgeschlossen ist bevor Sie einen anderen Umgebungsvorgang starten.

CPU-Beschränkungen für Trigger

Cloud Composer 2.4.4 führt einen anderen Ansatz zur Leistungsskalierung für die Komponente Airflow-Trigger ein, der für alle Cloud Composer 2-Versionen gilt.

Vor Version 2.4.4 konnten Cloud Composer-Umgebungen maximal einen oder zwei Auslöser verwenden. Nach der Änderung können Sie bis zu 10 Trigger pro Umgebung haben, Jeder Trigger ist jedoch auf maximal eine vCPU begrenzt.

Die Aktualisierungsvorgänge schlagen fehl, wenn Ihre Umgebung mit mehr als 1 vCPU pro Trigger. Sie müssen die Konfiguration so anpassen, dass das Limit von einer vCPU eingehalten wird, um Updates für andere Komponenten auszuführen.

Weitere Informationen finden Sie unter:

Auswirkungen von Updates auf laufende Airflow-Aufgaben

Wenn Sie einen Updatevorgang ausführen, müssen die Airflow-Planer und ‑Worker in Ihrer Umgebung möglicherweise neu gestartet werden. In diesem Fall werden alle derzeit laufenden Aufgaben beendet. Nach Abschluss des Aktualisierungsvorgangs plant Airflow je nach Konfiguration der Wiederholungen für Ihre DAGs einen erneuten Versuch für diese Aufgaben.

Die folgenden Änderungen führen zur Beendigung von Airflow-Aufgaben:

  • Upgrade der Umgebung auf eine neue Version
  • Benutzerdefinierte PyPI-Pakete hinzufügen, ändern oder löschen
  • Cloud Composer-Umgebungsvariablen ändern
  • Überschreibungen von Airflow-Konfigurationsoptionen hinzufügen oder entfernen oder ihre Werte.
  • Airflow-Worker ändern CPU, Arbeitsspeicher oder Speicher.
  • Die maximale Anzahl der Airflow-Worker wird reduziert, wenn der neue Wert niedriger ist als die Anzahl der aktuell ausgeführten Worker. Wenn beispielsweise ein In der Umgebung werden derzeit drei Worker ausgeführt und das Maximum wird auf zwei reduziert.
  • Ausfallsicherheitsmodus der Umgebung ändern

Die folgenden Änderungen führen nicht zur Beendigung von Airflow-Aufgaben:

  • Erstellen, Aktualisieren oder Löschen eines DAG (kein Aktualisierungsvorgang).
  • DAGs anhalten oder pausieren (kein Aktualisierungsvorgang)
  • Airflow-Variablen ändern (kein Aktualisierungsvorgang).
  • Airflow-Verbindungen ändern (kein Aktualisierungsvorgang).
  • Dataplex Data Lineage-Integration aktivieren oder deaktivieren
  • Größe der Umgebung ändern
  • Anzahl der Planer ändern
  • CPU, Arbeitsspeicher oder Speicherplatz der Airflow-Planer ändern
  • Die Anzahl der Trigger ändern.
  • Airflow-Triggerer ändern CPU, Arbeitsspeicher oder Speicher.
  • CPU, Arbeitsspeicher oder Speicher des Airflow-Webservers ändern
  • Mindestanzahl der Worker erhöhen oder verringern
  • Maximale Anzahl von Airflow-Workern reduzieren. Wenn beispielsweise ein In der Umgebung werden derzeit zwei Worker ausgeführt, das Maximum wird auf drei reduziert.
  • Wartungsfenster ändern
  • Einstellungen für geplante Snapshots ändern
  • Umgebungslabels ändern

Mit Terraform aktualisieren

Führen Sie terraform plan vor terraform apply aus, um zu prüfen, ob Terraform eine neue Umgebung erstellt, anstatt sie zu aktualisieren.

Hinweise

Umgebungen aktualisieren

Weitere Informationen zum Aktualisieren Ihrer Umgebung finden Sie auf anderen Dokumentationsseiten zu bestimmten Aktualisierungsvorgängen. Beispiel:

Umgebungsdetails ansehen

Console

  1. Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.

    Zur Seite Umgebungen

  2. Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.

gcloud

Führen Sie folgenden Befehl gcloud aus:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Ersetzen Sie:

  • ENVIRONMENT_NAME durch den Namen der Umgebung.
  • LOCATION durch die Region, in der sich die Umgebung befindet.

API

Erstellen Sie eine API-Anfrage environments.get.

Beispiel:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Führen Sie den Befehl terraform state show für die Ressource Ihrer Umgebung aus.

Der Name der Terraform-Ressource Ihrer Umgebung kann sich vom Namen Ihrer Umgebung unterscheiden.

terraform state show google_composer_environment.RESOURCE_NAME

Ersetzen Sie:

  • RESOURCE_NAME durch den Namen der Ressource Ihrer Umgebung.

Rollback für Aktualisierungsänderungen durchführen

In seltenen Fällen kann ein Aktualisierungsvorgang unterbrochen werden (z. B. aufgrund einer Zeitüberschreitung) und die angeforderten Änderungen werden möglicherweise in allen Umgebungskomponenten (z. B. im Airflow-Webserver) zurückgesetzt werden.

Ein Update kann beispielsweise das Installieren oder Entfernen zusätzlicher PyPI-Module, das Neudefinieren oder Definieren einer neuen Airflow- oder Cloud Composer-Umgebungsvariablen oder das Ändern einiger Airflow-Parameter umfassen.

Dies kann passieren, wenn ein Aktualisierungsvorgang ausgelöst wird, während andere Vorgänge ausgeführt werden, z. B. die automatische Skalierung des Cloud Composer-Clusters oder ein Wartungsvorgang.

In diesem Fall empfehlen wir, den Vorgang zu wiederholen.

Dauer von Aktualisierungs- oder Upgradevorgängen

Die meisten Aktualisierungs- oder Upgradevorgänge erfordern einen Neustart von Airflow-Komponenten wie Airflow-Planer, Worker und Webserver.

Nach dem Neustart einer Komponente muss sie initialisiert werden. Während der Initialisierung, Airflow-Planer und -Worker laden den Inhalt von /dags herunter und /plugins Ordner aus dem Bucket der Umgebung. Die Synchronisierung von Dateien mit Airflow-Planern und ‑Workern erfolgt nicht sofort und hängt von der Gesamtgröße und der Anzahl aller Objekte in diesen Ordnern ab.

Wir empfehlen, nur DAG- und Plug-in-Dateien in /dags und /plugins beizubehalten. und entfernen Sie alle anderen Dateien. Zu viele Daten in den Ordnern /dags und /plugins kann die Initialisierung von Airflow verlangsamen und in bestimmten Fällen die Initialisierung nicht möglich machen.

Wir empfehlen, in den Ordnern /dags und /plugins weniger als 30 MB an Daten zu speichern und die Datengröße auf keinen Fall auf 100 MB zu erhöhen.

Weitere Informationen finden Sie auch unter:

Nächste Schritte