Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Auf dieser Seite wird beschrieben, wie Sie auf das Monitoring-Dashboard Cloud Composer-Umgebung.
Eine Anleitung zum Überwachen wichtiger Umgebungsmesswerte finden Sie unter Status und Leistung der Umgebung anhand wichtiger Messwerte überwachen
Weitere Informationen zu bestimmten Messwerten finden Sie unter Umgebungen mit Cloud Monitoring überwachen
Auf das Monitoring-Dashboard zugreifen
Das Monitoring-Dashboard enthält Messwerte und Diagramme zur Überwachung von Trends in Der DAG wird in Ihrer Umgebung ausgeführt und erkennt Probleme mit Airflow und Cloud Composer-Ressourcen.
So greifen Sie auf das Monitoring-Dashboard für Ihre Umgebung zu:
Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.
Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.
Rufen Sie den Tab Monitoring auf.
Benachrichtigungen für Messwerte einrichten
Sie können Benachrichtigungen für einen Messwert einrichten, indem Sie auf das Glockensymbol in der Ecke der Monitoring-Karte klicken.
Messwert in Monitoring ansehen
Sie können einen Messwert genauer untersuchen, indem Sie ihn in Monitoring anzeigen.
Klicken Sie dazu im Monitoring-Dashboard von Cloud Composer auf auf das Dreipunkt-Menü oben rechts auf einer Messwertkarte und wählen Sie Im Metrics Explorer ansehen
Messwertbeschreibungen
Jede Cloud Composer-Umgebung hat ein eigenes Monitoring-Dashboard. Die Messwerte, die in einem Monitoring-Dashboard für eine bestimmte Umgebung angezeigt werden, erfassen nur die DAG-Ausführungen, Airflow-Komponenten und Umgebungsdetails für diese Umgebung. Wenn Sie beispielsweise zwei Umgebungen haben, aggregiert nicht Messwerte aus beiden Umgebungen.
Umgebungsübersicht
Umgebungsmesswert | Beschreibung |
---|---|
Umgebungszustand (Airflow-Monitoring-DAG) | Eine Zeitachse, die den Zustand der Composer-Bereitstellung zeigt. Der grüne Status spiegelt nur den Status der Composer-Bereitstellung wider. Das bedeutet nicht, dass alle Airflow-Komponenten betriebsbereit sind und DAGs ausgeführt werden können. |
Planer-Heartbeat | Eine Zeitachse, die den Heartbeat des Airflow-Planers zeigt. Suchen Sie nach roten Bereichen, um Probleme mit Airflow-Planern zu identifizieren. Wenn Ihre Umgebung mehr als einen Planer hat, ist der Heartbeat-Status „Fehlerfrei“, solange mindestens einer der Planer antwortet. |
Webserverstatus | Eine Zeitachse mit dem Status des Airflow-Webservers. Dieser Status wird anhand der vom Airflow-Webserver zurückgegebenen HTTP-Statuscodes generiert. |
Datenbankstatus | Eine Zeitachse mit dem Status der Verbindung zur Cloud SQL-Instanz, die die Airflow-Datenbank hostet. |
Umgebungsvorgänge | Eine Zeitachse mit Vorgängen, die die Umgebung ändern, z. B. Konfigurationsaktualisierungen oder das Laden von Umgebungs-Snapshots. |
Wartungsvorgänge | Eine Zeitachse mit Zeiträumen, in denen Wartungsvorgänge auf dem Cluster der Umgebung ausgeführt werden. |
Umgebungsabhängigkeiten | Eine Zeitachse mit dem Status der Erreichbarkeits- und Berechtigungsprüfungen für den Betrieb der Umgebung. |
DAG-Statistiken
Umgebungsmesswert | Beschreibung |
---|---|
Erfolgreiche DAG-Ausführungen | Die Gesamtzahl der erfolgreichen Ausführungen für alle DAGs in der Umgebung während des ausgewählten Zeitraums. Wenn die Anzahl der erfolgreichen DAG-Ausführungen unter den erwarteten Wert fällt, kann dies auf Fehler (siehe Fehlgeschlagene DAG-Ausführungen) oder auf ein Planungsproblem hindeuten. |
Fehlgeschlagene DAG-Ausführungen Fehlgeschlagene Aufgaben | Gesamtzahl der nicht erfolgreiche Ausführungen für alle DAGs in der Umgebung im ausgewählten Zeitraum. Die Gesamtzahl der Aufgaben, die im ausgewählten Zeitraum in der Umgebung fehlgeschlagen sind. Fehlgeschlagene Aufgaben führen nicht immer zu einem Fehler bei der Ausführung eines DAG. Sie können jedoch ein nützliches Signal für die Fehlerbehebung von DAG-Fehlern sein. |
Abgeschlossene DAG-Ausführungen | Die Anzahl der erfolgreichen und fehlgeschlagenen DAG-Fehler im ausgewählten Zeitraum. So lassen sich vorübergehende Probleme mit DAG-Ausführungen identifizieren und mit anderen Ereignissen wie Entfernen von Worker-Pods korrelieren. |
Erledigte Aufgaben | Die Anzahl der in der Umgebung abgeschlossenen Aufgaben mit einer Aufschlüsselung der erfolgreichen und fehlgeschlagenen Aufgaben. |
Ausführungsdauer Median-DAG | Der Medianwert für die Dauer von DAG-Ausführungen. Mit diesem Diagramm können Sie Leistungsprobleme erkennen und Trends in der DAG-Dauer erkennen. |
Airflow-Tasks | Die Anzahl der Task im Status „Wird ausgeführt“, „In der Warteschlange“ oder „Ausgesetzt“ zu einem bestimmten Zeitpunkt. Airflow-Aufgaben sind Aufgaben, die sich in Airflow in einem Warteschlangenstatus befinden. Sie können entweder an die Celery- oder die Kubernetes Executor-Broker-Warteschlange gesendet werden. Tasks in der Celery-Warteschlange sind Taskinstanzen, die in die Celery-Broker-Warteschlange gestellt wurden. |
Zombie-Aufgaben gelöscht | Die Anzahl der in einem kurzen Zeitfenster beendeten Zombie-Aufgaben. Zombie-Aufgaben werden häufig durch die externe Beendigung von Airflow-Prozessen verursacht. Der Airflow-Planer beendet Zombie-Aufgaben regelmäßig, was in diesem Diagramm zu sehen ist. |
Größe der DAG-Bags | Die Anzahl der DAGs, die im Bucket Ihrer Umgebung bereitgestellt und zu einem bestimmten Zeitpunkt von Airflow verarbeitet werden. Dies kann bei der Analyse von Leistungsengpässen hilfreich sein. Beispielsweise kann eine größere Anzahl von DAG-Bereitstellungen die Leistung aufgrund übermäßiger Last beeinträchtigen. |
DAG-Prozessorfehler | Die Anzahl der Fehler und Zeitüberschreitungen pro Sekunde, die beim Verarbeiten von DAG-Dateien aufgetreten sind. Der Wert gibt die Häufigkeit der vom DAG-Prozessor gemeldeten Fehler an. Dies ist ein anderer Wert als die Anzahl der fehlgeschlagenen DAGs. |
Gesamtanalysezeit für alle DAGs | Ein Diagramm mit der Gesamtzeit, die Airflow benötigt, um alle DAGs in der Umgebung zu verarbeiten. Eine längere Parsing-Zeit kann sich auf die Effizienz auswirken. Weitere Informationen finden Sie unter Unterschied zwischen der DAG-Analysezeit und der DAG-Ausführungszeit. |
Planerstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Planer-Heartbeat | Weitere Informationen finden Sie unter Umgebungsübersicht. |
Gesamte CPU-Nutzung des Planers | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Planer. |
Gesamte Planer-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Planer. |
Gesamte Laufwerksnutzung des Planers | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Planer. |
Neustarts von Planercontainern | Die Gesamtzahl der Neustarts für einzelne Planercontainer. |
Bereinigungen von Planer-Pods | Anzahl der Bereinigungen von Airflow-Planer-Pods. Eine Pod-Bereinigung kann auftreten, wenn ein bestimmter Pod im Cluster Ihrer Umgebung seine Ressourcenlimits erreicht. |
Worker-Statistiken
Umgebungsmesswert | Beschreibung |
---|---|
Gesamte Worker-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Worker. |
Gesamte Worker-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Worker. |
Gesamte Laufwerknutzung der Worker | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Worker. |
Aktive Worker | Die aktuelle Anzahl der Worker in Ihrer Umgebung. In Cloud Composer 2 wird die Anzahl der aktiven Worker in Ihrer Umgebung automatisch skaliert. |
Neustarts von Worker-Containern | Die Gesamtzahl der Neustarts für einzelne Worker-Container. |
Bereinigte Worker-Pods | Anzahl der Bereinigungen von Airflow-Worker-Pods. Eine Pod-Bereinigung kann auftreten, wenn ein bestimmter Pod im Cluster Ihrer Umgebung seine Ressourcenlimits erreicht. Wenn ein Airflow-Worker-Pod entfernt wird, werden alle auf diesem Pod ausgeführten Aufgabeninstanzen unterbrochen und später von Airflow als fehlgeschlagen markiert. |
Airflow-Tasks | Weitere Informationen finden Sie unter Umgebungsübersicht. |
Zeitüberschreitungen beim Veröffentlichen in Celery Broker |
Die Gesamtzahl der AirflowTaskTimeout -Fehler, die beim Veröffentlichen von Aufgaben in Celery-Brokern aufgetreten sind. Dieser Messwert entspricht dem Airflow-Messwert celery.task_timeout_error . |
Fehler von Celery-Ausführungsbefehlen |
Die Gesamtzahl der Exit-Codes ungleich null aus Celery-Tasks. Dieser Messwert entspricht dem Airflow-Messwert celery.execute_command.failure . |
Vom System beendete Tasks | Die Anzahl der Workflowtasks, bei denen der Task-Runner mit SIGKILL beendet wurde, beispielsweise aufgrund von Worker-Arbeitsspeicher- oder Heartbeat-Problemen. |
Triggerstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Zurückgestellte Aufgaben | Die Anzahl der Tasks im Status „Ausgesetzt“ zu einer bestimmten Zeit. Weitere Informationen zu verzögerten Aufgaben finden Sie unter Zurückstellbare Operatoren verwenden. |
Abgeschlossene Trigger | Die Anzahl der in allen Trigger-Pods abgeschlossenen Trigger. |
Laufende Trigger | Die Anzahl der laufenden Trigger pro Triggerinstanz. Dieses Diagramm enthält separate Linien für jeden Trigger. |
Blockierende Trigger | Anzahl der Trigger, die den Hauptthread blockiert haben (wahrscheinlich, weil sie nicht vollständig asynchron sind). |
Gesamte Triggerer-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Trigger-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Trigger. |
Gesamte Triggerer-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Triggerer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Trigger. |
Gesamte Laufwerksnutzung durch Triggerer | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Triggerer-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Trigger. |
Aktive Trigger | Die Anzahl der aktiven Triggerinstanzen. |
Triggerer-Container noch einmal markieren | Die Anzahl der Triggerer-Container, die neu gestartet werden. |
Webserverstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Webserverstatus | Weitere Informationen finden Sie unter Umgebungsübersicht. |
Webserver-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und dem kombinierten vCPU-Limit für alle Webserver. |
Webserver-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und dem kombinierten vCPU-Limit für alle Webserver. |
Gesamte Laufwerksnutzung des Webservers | Die Gesamtnutzung des Speicherplatzes durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und die kombinierte Speicherplatzbegrenzung für alle Webserver. |
SQL-Datenbankstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Datenbankstatus | Siehe Umgebungsübersicht. |
CPU-Nutzung der Datenbank | Die Nutzung von CPU-Kernen durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. |
Arbeitsspeichernutzung der Datenbank | Die Gesamtnutzung des Arbeitsspeichers durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. |
Datenträgerbelegung der Datenbank | Die Gesamtnutzung des Speicherplatzes durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. Dieser Messwert gilt für die Cloud SQL-Datenbankinstanz selbst, sodass er nicht abnimmt, wenn die Airflow-Datenbankgröße reduziert wird. Einen Messwert, der die Größe der Inhalte der Airflow-Datenbank anzeigt, finden Sie unter „Größe der Airflow-Metadatendatenbank“. |
Größe der Airflow-Metadaten-Datenbank | Größe der Airflow-Metadaten-Datenbank. Dieser Messwert gilt für die Airflow-Komponente Ihrer Umgebung und gibt den Speicherplatz an, den die Airflow-Metadatendatenbank auf der Cloud SQL-Datenbankinstanz belegt. Dieser Messwert sinkt, wenn die Größe der Airflow-Metadaten-Datenbank reduziert wird (z. B. nach der Wartung der Airflow-Datenbank). Er gibt an, ob Snapshots erstellt und Umgebungen aktualisiert werden können. Dieser Messwert unterscheidet sich vom Messwert „Datenplattennutzung der Datenbank“, der den von den Cloud SQL-Datenbankinstanzen genutzten Speicherplatz angibt. |
Datenbankverbindungen | Die Gesamtzahl der aktiven Verbindungen zur Datenbank und das Limit für die Gesamtzahl der Verbindungen. |
Unterschied zwischen der DAG-Parsing-Zeit und der DAG-Ausführungszeit
Im Monitoring-Dashboard einer Umgebung wird die Gesamtzeit angezeigt, die zum Parsen aller DAGs in Ihrer Cloud Composer-Umgebung erforderlich ist, sowie die durchschnittliche Zeit, die zum Ausführen eines DAG benötigt wird.
Das Parsen eines DAG und das Planen von Aufgaben aus einem DAG zur Ausführung sind zwei separate Vorgänge, die vom Airflow-Planer ausgeführt werden.
Die DAG-Parsing-Zeit ist die Zeit, die der Airflow-Planer benötigt, um eine DAG-Datei zu lesen und zu parsen.
Bevor der Airflow-Planer Aufgaben aus einem DAG planen kann, muss er die DAG-Datei parsen, um die Struktur des DAG und die definierten Aufgaben zu ermitteln. Nachdem die DAG-Datei geparst wurde, kann der Planer Aufgaben aus dem DAG planen.
Die DAG-Ausführungszeit ist die Summe aller Aufgabenausführungszeiten für einen DAG.
Um zu sehen, wie lange es dauert, eine bestimmte Airflow-Aufgabe aus einem DAG auszuführen, auf der Airflow-Weboberfläche, wählen Sie einen DAG aus und öffnen Sie den Tab Aufgabendauer: Auf diesem Tab werden Ausführungszeiten von Aufgaben angezeigt für die angegebene Anzahl der letzten DAG-Ausführungen.