Dataflow-Dokumentation
Dataflow ist ein verwalteter Dienst zur Ausführung eines breiten Spektrums an Datenverarbeitungsmustern. Die Dokumentation auf dieser Website zeigt Ihnen, wie Sie Ihre Batch- und Streaming-Datenverarbeitungspipelines mit Dataflow bereitstellen. Sie enthält auch Anweisungen zur Verwendung der Servicefunktionen.
Das Apache Beam SDK ist ein Open-Source-Programmiermodell, mit dem Sie sowohl Batch- als auch Streamingpipelines entwickeln können. Sie erstellen Ihre Pipelines mit einem Apache Beam-Programm und führen sie dann im Dataflow-Dienst aus. Die Apache Beam-Dokumentation enthält ausführliche konzeptionelle Informationen und Referenzmaterial für das Apache Beam-Programmiermodell, SDKs und andere Runner.
Grundlegende Apache Beam-Konzepte finden Sie in der Tour zu Beam und Beam Playground. Das Repository Dataflow Cookbook bietet außerdem einsatzbereite und eigenständige Pipelines sowie die gängigsten Dataflow-Anwendungsfälle.
Starten Sie Ihr nächstes Projekt mit einem Guthaben in Höhe von 300 $
Mit dem Guthaben für die kostenlose Testversion und der kostenlosen monatlichen Nutzung von mehr als 20 Produkten können Sie einen Proof of Concept erstellen und testen.
Mehr als 20 Produkte immer kostenlos nutzen
Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.