Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Auf dieser Seite wird beschrieben, wie Sie auf das Monitoring-Dashboard Cloud Composer-Umgebung.
Eine Anleitung zum Überwachen wichtiger Umgebungsmesswerte finden Sie unter Status und Leistung der Umgebung anhand wichtiger Messwerte überwachen
Weitere Informationen zu bestimmten Messwerten finden Sie unter Umgebungen mit Cloud Monitoring überwachen
Monitoring-Dashboard aufrufen
Das Monitoring-Dashboard enthält Messwerte und Diagramme zur Überwachung von Trends in Der DAG wird in Ihrer Umgebung ausgeführt und erkennt Probleme mit Airflow und Cloud Composer-Ressourcen.
So greifen Sie auf das Monitoring-Dashboard für Ihre Umgebung zu:
Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.
Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.
Rufen Sie den Tab Monitoring auf.
Benachrichtigungen für Messwerte einrichten
Sie können Benachrichtigungen für einen Messwert einrichten, indem Sie auf das Glockensymbol in der Ecke der Monitoring-Karte klicken.
Messwert in Monitoring ansehen
Sie können sich einen Messwert genauer ansehen, indem Sie ihn in Monitoring
Klicken Sie dazu im Monitoring-Dashboard von Cloud Composer auf auf das Dreipunkt-Menü oben rechts auf einer Messwertkarte und wählen Sie Im Metrics Explorer ansehen
<ph type="x-smartling-placeholder">Messwertbeschreibungen
Jede Cloud Composer-Umgebung hat ein eigenes Monitoring-Dashboard. Messwerte, die nur für eine bestimmte Umgebung in einem Monitoring-Dashboard angezeigt werden die DAG-Ausführungen, Airflow-Komponenten und Umgebungsdetails dazu verfolgen, und Umgebung verwenden. Wenn Sie beispielsweise zwei Umgebungen haben, aggregiert nicht Messwerte aus beiden Umgebungen.
Umgebungsübersicht
Umgebungsmesswert | Beschreibung |
---|---|
Umgebungszustand (Airflow-Monitoring-DAG) | Eine Zeitachse mit der Integrität des Composer-Deployments. Der grüne Status spiegelt nur den Status der Composer-Bereitstellung wider. Das bedeutet nicht, dass alle Airflow-Komponenten betriebsbereit sind und DAGs ausgeführt werden können. |
Planer-Heartbeat | Eine Zeitachse, die den Heartbeat des Airflow-Planers zeigt. Suchen Sie nach roten Bereichen, um Probleme mit Airflow-Planern zu identifizieren. Wenn Ihre Umgebung mehr als einen Planer hat, ist der Heartbeat-Status „Fehlerfrei“, solange mindestens einer der Planer antwortet. |
Webserverstatus | Eine Zeitachse mit dem Status des Airflow-Webservers. Dieser Status wird anhand der HTTP-Statuscodes generiert, die vom Airflow-Webserver zurückgegeben werden. |
Datenbankstatus | Eine Zeitachse mit dem Status der Verbindung zur Cloud SQL-Instanz, die die Airflow-Datenbank hostet. |
Umgebungsvorgänge | Eine Zeitachse mit Vorgängen, bei denen die Umgebung geändert wird, z. B. das Ausführen von Konfigurationsaktualisierungen oder das Laden von Umgebungs-Snapshots. |
Wartungsvorgänge | Eine Zeitachse mit Zeiträumen, in denen Wartungsvorgänge am Cluster der Umgebung ausgeführt werden. |
Umgebungsabhängigkeiten | Eine Zeitachse mit dem Status der Erreichbarkeits- und Berechtigungsprüfungen für den Betrieb der Umgebung. |
DAG-Statistiken
Umgebungsmesswert | Beschreibung |
---|---|
Erfolgreiche DAG-Ausführungen | Die Gesamtzahl der erfolgreichen Ausführungen für alle DAGs in der Umgebung während des ausgewählten Zeitraums. Wenn die Anzahl der erfolgreichen DAG-Ausführungen unter den erwarteten Wert fällt, kann dies auf Fehler (siehe Fehlgeschlagene DAG-Ausführungen) oder auf ein Planungsproblem hindeuten. |
Fehlgeschlagene DAG-Ausführungen Fehlgeschlagene Aufgaben | Gesamtzahl der nicht erfolgreiche Ausführungen für alle DAGs in der Umgebung im ausgewählten Zeitraum. Die Gesamtzahl der Aufgaben, die im ausgewählten Zeitraum in der Umgebung fehlgeschlagen sind. Fehlgeschlagene Aufgaben führen nicht immer zu einem Fehler bei der Ausführung eines DAG. Sie können jedoch ein nützliches Signal für die Fehlerbehebung von DAG-Fehlern sein. |
Abgeschlossene DAG-Ausführungen | Die Anzahl der DAG-Erfolge und -Fehler für Intervalle im ausgewählten Zeitraum. So lassen sich vorübergehende Probleme mit DAG-Ausführungen identifizieren und mit anderen Ereignissen wie Entfernen von Worker-Pods korrelieren. |
Erledigte Aufgaben | Die Anzahl der in der Umgebung abgeschlossenen Aufgaben mit einer Aufschlüsselung der erfolgreichen und fehlgeschlagenen Aufgaben. |
Ausführungsdauer Median-DAG | Der Medianwert für die Dauer von DAG-Ausführungen. Mit diesem Diagramm können Sie Leistungsprobleme erkennen und Trends in der DAG-Dauer erkennen. |
Airflow-Tasks | Die Anzahl der Task im Status „Wird ausgeführt“, „In der Warteschlange“ oder „Ausgesetzt“ zu einem bestimmten Zeitpunkt. Airflow-Aufgaben sind Aufgaben, die sich in Airflow in einer Warteschlange befinden und entweder an die Celery- oder die Kubernetes Executor-Broker-Warteschlange gesendet werden. Tasks in der Celery-Warteschlange sind Taskinstanzen, die in die Celery-Broker-Warteschlange gestellt wurden. |
Zombie-Aufgaben gelöscht | Die Anzahl der in einem kurzen Zeitfenster beendeten Zombie-Aufgaben. Zombie-Aufgaben werden häufig durch die externe Beendigung von Airflow-Prozessen verursacht. Der Airflow-Planer beendet Zombie-Aufgaben regelmäßig, was in diesem Diagramm zu sehen ist. |
Größe der DAG-Bags | Die Anzahl der DAGs, die im Bucket Ihrer Umgebung bereitgestellt und zu einem bestimmten Zeitpunkt von Airflow verarbeitet werden. Dies kann bei der Analyse von Leistungsengpässen hilfreich sein. Beispielsweise kann eine größere Anzahl von DAG-Bereitstellungen die Leistung aufgrund übermäßiger Last beeinträchtigen. |
DAG-Prozessorfehler | Die Anzahl der Fehler und Zeitüberschreitungen pro Sekunde, die beim Verarbeiten von DAG-Dateien aufgetreten sind. Der Wert gibt die Häufigkeit der vom DAG-Prozessor gemeldeten Fehler an. Dies ist ein anderer Wert als die Anzahl der fehlgeschlagenen DAGs. |
Gesamtanalysezeit für alle DAGs | Ein Diagramm mit der Gesamtzeit, die Airflow benötigt, um alle DAGs in der Umgebung zu verarbeiten. Eine längere Parsing-Zeit kann sich auf die Effizienz auswirken. Weitere Informationen finden Sie unter Unterschied zwischen der DAG-Analysezeit und der DAG-Ausführungszeit. |
Planerstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Planer-Heartbeat | Siehe Umgebungsübersicht. |
Gesamte CPU-Nutzung des Planers | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Planer. |
Gesamte Arbeitsspeichernutzung des Planers | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Planer. |
Gesamte Laufwerksnutzung des Planers | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Planer-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Planer. |
Neustarts von Planercontainern | Die Gesamtzahl der Neustarts für einzelne Planercontainer. |
Bereinigungen von Planer-Pods | Anzahl der Bereinigungen von Airflow-Planer-Pods. Eine Pod-Bereinigung kann auftreten, wenn ein bestimmter Pod im Cluster Ihrer Umgebung seine Ressourcenlimits erreicht. |
Worker-Statistiken
Umgebungsmesswert | Beschreibung |
---|---|
Gesamte Worker-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Worker. |
Gesamte Worker-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Worker. |
Gesamte Worker-Laufwerksnutzung | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Worker-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Worker. |
Aktive Worker | Die aktuelle Anzahl der Worker in Ihrer Umgebung. In Cloud Composer 2 wird die Anzahl der aktiven Worker in Ihrer Umgebung automatisch skaliert. |
Neustarts von Worker-Containern | Die Gesamtzahl der Neustarts für einzelne Worker-Container. |
Bereinigte Worker-Pods | Anzahl der Bereinigungen von Airflow-Worker-Pods. Eine Pod-Bereinigung kann auftreten, wenn ein bestimmter Pod im Cluster Ihrer Umgebung seine Ressourcenlimits erreicht. Wenn ein Airflow-Worker-Pod entfernt wird, werden alle auf diesem Pod ausgeführten Aufgabeninstanzen unterbrochen und später von Airflow als fehlgeschlagen markiert. |
Airflow-Tasks | Siehe Umgebungsübersicht. |
Zeitüberschreitungen beim Veröffentlichen in Celery Broker |
Die Gesamtzahl der AirflowTaskTimeout Fehler, die beim Veröffentlichen von Aufgaben in Celery Brokers aufgetreten sind. Dieser Messwert entspricht dem Airflow-Messwert celery.task_timeout_error . |
Fehler von Celery-Ausführungsbefehlen |
Die Gesamtzahl der Exit-Codes ungleich null aus Celery-Aufgaben. Dieser Messwert entspricht dem Airflow-Messwert celery.execute_command.failure . |
Vom System beendete Tasks | Die Anzahl der Workflowtasks, bei denen der Task-Runner mit SIGKILL beendet wurde, beispielsweise aufgrund von Worker-Arbeitsspeicher- oder Heartbeat-Problemen. |
Triggerstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Zurückgestellte Aufgaben | Die Anzahl der Aufgaben, die sich zu einem bestimmten Zeitpunkt im Status „Ausgesetzt“ befinden. Weitere Informationen zu zurückgestellten Aufgaben finden Sie unter Aussetzbare Operatoren verwenden. |
Abgeschlossene Trigger | Die Anzahl der in allen Trigger-Pods abgeschlossenen Trigger. |
Laufende Trigger | Die Anzahl der Trigger, die pro Triggerinstanz ausgeführt werden. In diesem Diagramm werden separate Zeilen für jeden Triggerer angezeigt. |
Blockierende Trigger | Anzahl der Trigger, die den Hauptthread blockiert haben (wahrscheinlich weil sie nicht vollständig asynchron waren). |
Gesamte Triggerer-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die in allen Airflow-Triggerer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Trigger. |
Gesamte Triggerer-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die in allen Airflow-Triggerer-Pods ausgeführt werden, und das kombinierte vCPU-Limit für alle Trigger. |
Gesamte Laufwerksnutzung durch Triggerer | Die Gesamtnutzung des Speicherplatzes durch Container, die in allen Airflow-Triggerer-Pods ausgeführt werden, und das kombinierte Speicherplatzlimit für alle Trigger. |
Aktive Trigger | Die Anzahl der aktiven Triggerinstanzen. |
Triggerer-Container noch einmal markieren | Die Anzahl der Triggerer-Container, die neu gestartet werden. |
Webserverstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Webserverstatus | Siehe Umgebungsübersicht. |
Webserver-CPU-Nutzung | Die Gesamtnutzung von vCPU-Kernen durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und dem kombinierten vCPU-Limit für alle Webserver. |
Webserver-Arbeitsspeichernutzung | Die Gesamtnutzung des Arbeitsspeichers durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und dem kombinierten vCPU-Limit für alle Webserver. |
Gesamte Laufwerksnutzung des Webservers | Die Gesamtnutzung des Speicherplatzes durch Container, die auf allen Airflow-Webservern ausgeführt werden Pods und die kombinierte Speicherplatzbegrenzung für alle Webserver. |
SQL-Datenbankstatistiken
Umgebungsmesswert | Beschreibung |
---|---|
Datenbankstatus | Siehe Umgebungsübersicht. |
CPU-Nutzung der Datenbank | Die Nutzung von CPU-Kernen durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. |
Arbeitsspeichernutzung der Datenbank | Die Gesamtnutzung des Arbeitsspeichers durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. |
Datenträgerbelegung der Datenbank | Die Gesamtnutzung des Speicherplatzes durch die Cloud SQL-Datenbankinstanzen Ihrer Umgebung. |
Datenbankverbindungen | Die Gesamtzahl der aktiven Verbindungen zur Datenbank und das Limit für die Gesamtzahl der Verbindungen. |
Größe der Airflow-Metadaten-Datenbank | Größe der Airflow-Metadaten-Datenbank. Weitere Informationen zur Verwaltung der Airflow-Metadatendatenbank finden Sie unter Airflow-Datenbank bereinigen. |
Unterschied zwischen der DAG-Parsing-Zeit und der DAG-Ausführungszeit
Im Monitoring-Dashboard einer Umgebung wird die Gesamtzeit angezeigt, die zum Parsen aller DAGs in Ihrer Cloud Composer-Umgebung erforderlich ist, sowie die durchschnittliche Zeit, die zum Ausführen eines DAG benötigt wird.
Das Parsen eines DAG und das Planen von Aufgaben aus einem DAG zur Ausführung sind zwei separate Vorgänge, die vom Airflow-Planer ausgeführt werden.
<ph type="x-smartling-placeholder">Die DAG-Parsing-Zeit ist die Zeit, die der Airflow-Planer benötigt, um eine DAG-Datei zu lesen und zu parsen.
Bevor der Airflow-Planer Aufgaben aus einem DAG planen kann, muss er die DAG-Datei parsen, um die Struktur des DAG und die definierten Aufgaben zu ermitteln. Nachdem die DAG-Datei geparst wurde, kann der Planer Aufgaben aus dem DAG planen.
Die DAG-Ausführungszeit ist die Summe aller Aufgabenausführungszeiten für einen DAG.
Um zu sehen, wie lange es dauert, eine bestimmte Airflow-Aufgabe aus einem DAG auszuführen, auf der Airflow-Weboberfläche, wählen Sie einen DAG aus und öffnen Sie den Tab Aufgabendauer: Auf diesem Tab werden Ausführungszeiten von Aufgaben angezeigt für die angegebene Anzahl der letzten DAG-Ausführungen.