Dataflow ist ein verwalteter Dienst zur Ausführung eines breiten Spektrums an Datenverarbeitungsmustern. Die Dokumentation auf dieser Website zeigt Ihnen, wie Sie Ihre Batch- und Streaming-Datenverarbeitungspipelines mit Dataflow bereitstellen. Sie enthält auch Anweisungen zur Verwendung der Servicefunktionen.

Das Apache Beam SDK ist ein Open-Source-Programmiermodell, mit dem Sie sowohl Batch- als auch Streamingpipelines entwickeln können. Sie erstellen Ihre Pipelines mit einem Apache Beam-Programm und führen sie dann im Dataflow-Dienst aus. Die Apache Beam-Dokumentation enthält ausführliche konzeptionelle Informationen und Referenzmaterial für das Apache Beam-Programmiermodell, SDKs und andere Runner.

Grundlegende Apache Beam-Konzepte finden Sie in der Tour zu Beam und Beam Playground. Das Repository Dataflow Cookbook bietet außerdem einsatzbereite und eigenständige Pipelines sowie die gängigsten Dataflow-Anwendungsfälle.

Apache, Apache Beam, Beam, das Beam-Logo und das Beam-Maskottchen sind eingetragene Marken der Apache Software Foundation in den USA und/oder anderen Ländern.
Jetzt kostenlos starten

Starten Sie Ihr nächstes Projekt mit einem Guthaben in Höhe von 300 $

Mit dem Guthaben für die kostenlose Testversion und der kostenlosen monatlichen Nutzung von mehr als 20 Produkten können Sie einen Proof of Concept erstellen und testen.

Angebote für kostenlose Produkte ansehen

Mehr als 20 Produkte immer kostenlos nutzen

Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.

Entdecken Sie Schulungen von Google Cloud Skills Boost, Anwendungsfälle, Referenzarchitekturen und Codebeispiele mit Details zur Verwendung und Verbindung von Google Cloud-Diensten.

Ähnliche Videos