Datenpipeline erstellen
In dieser Kurzanleitung wird Folgendes beschrieben:
- Erstellen Sie eine Cloud Data Fusion-Instanz.
- Beispielpipeline bereitstellen, die in Ihrer Cloud Data Fusion-Instanz bereitgestellt wird Die Pipeline führt Folgendes aus:
- Eine JSON-Datei mit NYT-Bestseller-Daten aus Cloud Storage lesen
- Transformationen an der Datei ausführen, um die Daten zu analysieren und zu bereinigen
- Die bestbewerteten Bücher, die in der letzten Woche hinzugefügt wurden und weniger als 25 $ kosten, in BigQuery laden
Hinweise
- Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Cloud Data Fusion API aktivieren.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Cloud Data Fusion API aktivieren.
Erstellen Sie eine Cloud Data Fusion-Instanz.
- Klicken Sie auf Instanz erstellen.
- Geben Sie einen Instanznamen ein.
- Geben Sie eine Beschreibung für Ihre Instanz ein.
- Geben Sie die Region ein, in der die Instanz erstellt werden soll.
- Wählen Sie die zu verwendende Cloud Data Fusion-Version aus.
- Wählen Sie die Version von Cloud Data Fusion aus.
- Wählen Sie für Cloud Data Fusion-Version 6.2.3 und höher im Feld Autorisierung das Dataproc-Dienstkonto zum Ausführen der Cloud Data Fusion-Pipeline in Dataproc aus. Der Standardwert, das Compute Engine-Konto, ist bereits ausgewählt.
- Klicken Sie auf Erstellen. Es kann bis zu 30 Minuten dauern, bis die Instanz erstellt ist. Während Cloud Data Fusion die Instanz erstellt, wird neben dem Instanznamen auf der Seite Instanzen ein Radsymbol angezeigt, das den Fortschritt angibt. Nachdem der Vorgang abgeschlossen ist, wird es zu einem grünen Häkchen. Dies zeigt an, dass Sie die Instanz verwenden können.
Cloud Data Fusion-Weboberfläche verwenden
Wenn Sie Cloud Data Fusion verwenden, verwenden Sie sowohl die Google Cloud Console als auch die separate Cloud Data Fusion-Weboberfläche.
In der Google Cloud Console haben Sie folgende Möglichkeiten:
- Google Cloud Console-Projekt erstellen
- Cloud Data Fusion-Instanzen erstellen und löschen
- Details zur Cloud Data Fusion-Instanz ansehen
In der Cloud Data Fusion-Weboberfläche können Sie verschiedene Seiten, z. B. Studio oder Wrangler, verwenden.
So verwenden Sie die Cloud Data Fusion-Oberfläche:
- Öffnen Sie in der Google Cloud Console die Seite Instanzen.
- Klicken Sie in der Spalte Aktionen der Instanz auf den Link Instanz aufrufen.
- Gehen Sie in der Cloud Data Fusion-Weboberfläche zum linken Navigationsbereich, um zur gewünschten Seite zu wechseln.
Beispielpipeline bereitstellen
Beispielpipelines sind über Cloud Data Fusion Hub verfügbar. Dort können Sie wiederverwendbare Cloud Data Fusion-Pipelines, Plug-ins und Lösungen gemeinsam nutzen.
- Klicken Sie in der Weboberfläche von Cloud Data Fusion auf Hub.
- Klicken Sie im linken Bereich auf Pipelines.
- Klicken Sie auf die Pipeline Cloud Data Fusion-Quickstart.
- Klicken Sie auf Erstellen.
- Klicken Sie im Cloud Data Fusion-Quickstart-Konfigurationsbereich auf Fertigstellen.
- Klicken Sie auf Pipeline anpassen. Auf der Seite Studio, einer grafischen Oberfläche für die Entwicklung von Pipelines für die Datenintegration, wird eine visuelle Darstellung Ihrer Pipeline angezeigt. Auf der linken Seite sind die Pipeline-Plug-ins aufgelistet und Ihre Pipeline wird im Hauptbereich angezeigt. Sie können die Pipeline untersuchen, indem Sie den Mauszeiger über den einzelnen Knoten der Pipeline halten und auf Attribute klicken. Im Eigenschaftenmenü jedes Knotens können Sie die mit dem Knoten verknüpften Objekte und Vorgänge ansehen.
- Klicken Sie rechts oben auf Bereitstellen. In diesem Schritt wird die Pipeline an Cloud Data Fusion gesendet. Im nächsten Abschnitt dieser Kurzanleitung führen Sie die Pipeline aus.

Pipeline anzeigen
Die bereitgestellte Pipeline wird in der Ansicht der Pipelinedetails angezeigt. Hier können Sie Folgendes tun:
- Sehen Sie sich die Struktur und Konfiguration der Pipeline an.
- Pipeline manuell ausführen oder einen Zeitplan bzw. Trigger einrichten
- eine Zusammenfassung der bisherigen Ausführungen der Pipeline ansehen, einschließlich Ausführungszeiten, Logs und Messwerten

Pipeline ausführen
Klicken Sie in der Ansicht „Pipelinedetails“ auf Ausführen, um die Pipeline auszuführen.

Beim Ausführen einer Pipeline führt Cloud Data Fusion folgende Schritte aus:
- Stellt einen sitzungsspezifischen Dataproc-Cluster bereit
- Führt die Pipeline im Cluster mit Apache Spark aus
- Löscht den Cluster
Ergebnisse aufrufen
Nach einigen Minuten ist die Pipeline abgeschlossen. Der Pipelinestatus ändert sich in Erfolgreich und die Anzahl der von jedem Knoten verarbeiteten Datensätze wird angezeigt.

- Rufen Sie die BigQuery-Weboberfläche auf.
Um ein Beispiel der Ergebnisse anzusehen, rufen Sie das Dataset
DataFusionQuickstart
in Ihrem Projekt auf, klicken Sie auf die Tabelletop_rated_inexpensive
und führen Sie dann eine einfache Abfrage aus, z. B.:SELECT * FROM
<var>PROJECT_ID<var>.GCPQuickStart.top_rated_inexpensive
LIMIT 10Ersetzen Sie PROJECT_ID durch Ihre Projekt-ID.

Bereinigen
So vermeiden Sie, dass Ihrem Google Cloud-Konto die auf dieser Seite verwendeten Ressourcen in Rechnung gestellt werden:
- Löschen Sie das BigQuery-Dataset, in das Ihre Pipeline in dieser Kurzanleitung geschrieben hat.
Optional: Löschen Sie das Projekt.
- Wechseln Sie in der Google Cloud Console zur Seite Ressourcen verwalten.
- Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
- Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.
Nächste Schritte
- Anleitung zu Cloud Data Fusion
- Informationen über Konzepte zu Cloud Data Fusion
- Informationen über Architekturkomponenten von Cloud Data Fusion