Dataflow ist ein verwalteter Dienst zur Ausführung eines breiten Spektrums an Datenverarbeitungsmustern. Die Dokumentation auf dieser Website zeigt Ihnen, wie Sie Ihre Batch- und Streaming-Datenverarbeitungspipelines mit Dataflow bereitstellen. Sie enthält auch Anweisungen zur Verwendung der Servicefunktionen.

Das Apache Beam SDK ist ein Open-Source-Programmiermodell, mit dem Sie sowohl Batch- als auch Streamingpipelines entwickeln können. Sie erstellen Ihre Pipelines mit einem Apache Beam-Programm und führen sie dann im Dataflow-Dienst aus. Die Apache Beam-Dokumentation enthält ausführliche konzeptionelle Informationen und Referenzmaterial für das Apache Beam-Programmiermodell, SDKs und andere Runner.

Grundlegende Apache Beam-Konzepte finden Sie in der Tour zu Beam und Beam Playground. Das Repository Dataflow Cookbook bietet außerdem einsatzbereite und eigenständige Pipelines sowie die gängigsten Dataflow-Anwendungsfälle.

Apache, Apache Beam, Beam, das Beam-Logo und das Beam-Maskottchen sind eingetragene Marken der Apache Software Foundation in den USA und/oder anderen Ländern.
Jetzt kostenlos starten

Proof of Concept mit einem Guthaben in Höhe von 300 $starten

  • Zugriff auf Gemini 2.0 Flash Thinking erhalten
  • Kostenlose monatliche Nutzung beliebter Produkte wie KI-APIs und BigQuery
  • Keine automatischen Abbuchungen, keine Verpflichtungen
Entdecken Sie Schulungen von Google Cloud Skills Boost, Anwendungsfälle, Referenzarchitekturen und Codebeispiele mit Details zur Verwendung und Verbindung von Google Cloud-Diensten. Google Cloud

Ähnliche Videos

Beispiel für einen Einheitentest für einen DAG

Beispiel für einen Einheitentest für einen Python-DAG.

In diesem Beispiel wird ein integriertes Monitoring-Dashboard für mehrere Umgebungen in ausgewählten Projekten in derselben Organisation implementiert.