Dataflow-Dokumentation
Dataflow ist ein verwalteter Dienst zur Ausführung eines breiten Spektrums an Datenverarbeitungsmustern. Die Dokumentation auf dieser Website zeigt Ihnen, wie Sie Ihre Batch- und Streaming-Datenverarbeitungspipelines mit Dataflow bereitstellen. Sie enthält auch Anweisungen zur Verwendung der Servicefunktionen.
Das Apache Beam SDK ist ein Open-Source-Programmiermodell, mit dem Sie sowohl Batch- als auch Streamingpipelines entwickeln können. Sie erstellen Ihre Pipelines mit einem Apache Beam-Programm und führen sie dann im Dataflow-Dienst aus. Die Apache Beam-Dokumentation enthält ausführliche konzeptionelle Informationen und Referenzmaterial für das Apache Beam-Programmiermodell, SDKs und andere Runner.
Grundlegende Apache Beam-Konzepte finden Sie in der Tour zu Beam und Beam Playground. Das Repository Dataflow Cookbook bietet außerdem einsatzbereite und eigenständige Pipelines sowie die gängigsten Dataflow-Anwendungsfälle.
Proof of Concept mit einem Guthaben in Höhe von 300 $starten
- Zugriff auf Gemini 2.0 Flash Thinking erhalten
- Kostenlose monatliche Nutzung beliebter Produkte wie KI-APIs und BigQuery
- Keine automatischen Abbuchungen, keine Verpflichtungen
Dokumentationsressourcen
Weitere Informationen
Ähnliche Videos
Beispiel für einen DAG-Test (Airflow 1)
Beispiel für einen Einheitentest für einen DAG
DAG-Einheitentests
Beispiel für einen Einheitentest für einen Python-DAG.
Projektübergreifendes Umgebungsmonitoring
In diesem Beispiel wird ein integriertes Monitoring-Dashboard für mehrere Umgebungen in ausgewählten Projekten in derselben Organisation implementiert.
Composer-Imageversionen auflisten
Listet Image-Versionen für Cloud Composer auf
Lokale Abhängigkeiten verwenden
Werden Sie lokale Abhängigkeiten in einem Apache Airflow-DAG, der auf Cloud Composer ausgeführt wird.
Anleitung zum Erstellen von Composer-Workflow-Instanzen in Composer (Airflow 1)
Beispiel für einen Airflow-DAG, der eine Cloud Dataproc-Vorlage startet, die einen Spark-Pi-Job ausführt
Benutzerdefinierte Airflow-Verbindung verwenden
Führen Sie eine Aufgabe mit einer zuvor erstellten benutzerdefinierten Airflow-Verbindung aus.
DAG: Metadaten-Datenbank bereinigen
Beispiel-DAG, mit dem Nutzer ihre Airflow-Metadatendatenbank bereinigen können
Umgebungsclient-ID abrufen
Rufen Sie die Client-ID des Identity-Aware Proxy einer Composer-Umgebung ab.