Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Sehen Sie sich den Data Cloud Summit auf Abruf an und lernen Sie die neuesten Innovationen aus den Bereichen Analytik, KI, BI und Datenbanken kennen.
Weiter zu

Cloud Composer

Vollständig verwalteter, auf Apache Airflow basierender Dienst für die Workflow-Orchestrierung.

Neukunden erhalten eine Gutschrift von 300 $ für Composer oder andere Google Cloud-Produkte in den ersten 90 Tagen.

  • Erstellung, Planung und Überwachung von Pipelines, die sich über Hybrid- und Multi-Cloud-Umgebungen erstrecken

  • Basiert auf dem Open-Source-Projekt Apache Airflow und wird in der Programmiersprache Python betrieben

  • Nutzerfreundlichkeit und keine Anbieterbindung

Vorteile

Vollständig verwaltete Workflow-Orchestrierung

Cloud Composer ist vollständig verwaltet und mit Apache Airflow kompatibel. Sie müssen sich also nicht mehr mit der Bereitstellung von Ressourcen befassen, sondern können in Ruhe Workflows erstellen, planen und überwachen.

Einbindung in andere Google Cloud-Produkte

Dank der durchgängigen Einbindung von Google Cloud-Produkten, einschließlich BigQuery, Dataflow, Dataproc, Datastore, Cloud Storage, Pub/Sub und AI Platform, können Nutzer ihre Pipeline vollständig orchestrieren.

Unterstützung von Hybrid- und Multi-Cloud-Architekturen

Erstellen, planen und überwachen Sie Ihre Workflows über ein einziges Orchestrierungstool. Dabei kann Ihre Pipeline lokal, in mehreren Clouds oder vollständig innerhalb von Google Cloud existieren.

Wichtige Features

Wichtige Features

Hybrid- und Multi-Cloud

Orchestrierte Workflows schlagen Brücken zwischen der lokalen Infrastruktur und öffentlichen Clouds. Sie können dadurch die Umstellung auf die Cloud erleichtern oder bei einer hybriden Datenumgebung bleiben. Erstellen Sie Workflows, deren Daten, Prozesse und Dienste aus mehreren Clouds stammen können, und schaffen Sie so eine einheitliche Datenumgebung.

Open Source

Cloud Composer basiert auf Apache Airflow. Die Nutzer sind dadurch flexibel und nicht an einen Anbieter gebunden. Dieses Projekt, an dem sich auch Google beteiligt, ist anbieterunabhängig und mit vielen Plattformen kompatibel, zu denen durch die wachsende Airflow-Community in Zukunft noch weitere hinzukommen werden.

Einfache Orchestrierung

Cloud Composer-Pipelines werden mithilfe von Python als gerichtete azyklische Graphen (Directed Acyclic Graphs, DAGs) konfiguriert. So wird eine einfache Anwendung für alle Nutzer garantiert. Greifen Sie per Mausklick direkt auf eine umfangreiche Connector-Bibliothek zu und erzeugen Sie mehrere grafische Darstellungen des Workflows in Aktion. Dadurch wird die Fehlerbehebung besonders einfach. Dank automatischer Synchronisierung der gerichteten azyklischen Graphen bleiben Ihre Jobs im Zeitplan.

Alle Features ansehen

Kunden

Von Kunden lernen, die Cloud Composer verwenden

Dokumentation

Dokumentation

Grundlagen zu Google Cloud
Cloud Composer

Hier finden Sie eine Übersicht über eine Cloud Composer-Umgebung und die Google Cloud-Produkte, die für ein Deployment von Apache Airflow verwendet werden.

Architektur
Infrastruktur mit Cloud Composer automatisieren

Hier erfahren Sie, wie Sie automatisierte Back-ups von Compute Engine-VM-Instanzen planen.

Architektur
CI-/CD-Pipeline für Ihren Datenverarbeitungsworkflow einrichten

In dieser Anleitung wird beschrieben, wie Sie mit verwalteten Produkten in Google Cloud eine CI-/CD-Pipeline für die Datenverarbeitung einrichten.

Muster
Private-IP-Umgebung in Cloud Composer

Hier finden Sie Informationen zum Verwenden einer privaten IP-Umgebung in Cloud Composer.

Tutorial
DAGs (Workflows) schreiben

In dieser Anleitung erfahren Sie, wie Sie einen gerichteten azyklischen Graphen (DAG) in Apache Airflow für die Ausführung in einer Cloud Composer-Umgebung schreiben.

Tutorial
Google Cloud Skills Boost: Data Engineering in Google Cloud

Diese viertägige Schulung mit Kursleiter bietet den Teilnehmern eine praktische Einführung in den Entwurf und die Erstellung von Datenpipelines in Google Cloud.

Alle Features

Alle Features

Multi-Cloud Erstellen Sie Workflows, deren Daten, Prozesse und Dienste aus mehreren Clouds stammen können, und schaffen Sie so eine einheitliche Datenumgebung.
Open Source Cloud Composer basiert auf Apache Airflow. Die Nutzer sind dadurch flexibel und nicht an einen Anbieter gebunden.
Hybrid Orchestrierte Workflows schlagen Brücken zwischen der lokalen Infrastruktur und öffentlichen Clouds. Sie können dadurch die Umstellung auf die Cloud erleichtern oder bei einer hybriden Datenumgebung bleiben.
Eingebunden Dank der Einbindung in BigQuery, Dataflow, Dataproc, Datastore, Cloud Storage, Pub/Sub, AI Platform und weitere Dienste können Sie End-to-End-Google Cloud-Arbeitslasten koordinieren.
Programmiersprache Python Erstellen und planen Sie mit Ihren vorhandenen Python-Kenntnissen dynamisch Workflows in Cloud Composer.
Zuverlässig Mit übersichtlichen Diagrammen zur Überwachung und Fehlerbehebung können Sie der Ursache eines Problems mühelos auf die Spur kommen und Ihre Workflows noch stabiler gestalten.
Vollständig verwaltet Cloud Composer ist vollständig verwaltet. Sie müssen sich also nicht mehr mit der Bereitstellung von Ressourcen befassen, sondern können in Ruhe Workflows erstellen, planen und überwachen.
Netzwerk und Sicherheit Für das Erstellen der Umgebung bietet Cloud Composer die folgenden Konfigurationsoptionen: Cloud Composer-Umgebung mit einem routenbasierten GKE-Cluster (Standard), Private-IP-Umgebung in Cloud Composer, Cloud Composer-Umgebung mit einem VPC-nativen GKE-Cluster unter Verwendung von Alias-IP-Adressen, freigegebene VPC.

Preise

Preise

Die Preise für Cloud Composer sind nutzungsabhängig und richten sich nach dem Verbrauch in vCPU/Stunde, GB/Monat und übertragene GB/Monat. Da Cloud Composer mehrere Google Cloud-Produkte als Bausteine nutzt, gibt es verschiedene Preiseinheiten.

Die Preise sind für alle Verbrauchsebenen und dauerhaften Nutzungsebenen einheitlich. Weitere Informationen finden Sie in der Preisübersicht.