Dataflow-Pipeline mit Python erstellen
In dieser Kurzanleitung erfahren Sie, wie Sie das Apache Beam SDK für Python verwenden, um ein Programm zu erstellen, das eine Pipeline definiert. Anschließend führen Sie die Pipeline mit einem direkten lokalen Runner oder einem cloudbasierten Runner wie Dataflow aus. Eine Einführung in die WordCount-Pipeline finden Sie im Video How to use WordCount in Apache Beam.
Klicken Sie auf Anleitung, um die Schritt-für-Schritt-Anleitung für diese Aufgabe direkt in der Google Cloud Console auszuführen:
Hinweis
- Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
- Installieren Sie die Google Cloud CLI.
-
Führen Sie folgenden Befehl aus, um die gcloud CLI zu initialisieren:
gcloud init
-
Google Cloud-Projekt erstellen oder auswählen.
-
Erstellen Sie ein Google Cloud-Projekt:
gcloud projects create PROJECT_ID
-
Wählen Sie das von Ihnen erstellte Google Cloud-Projekt aus:
gcloud config set project PROJECT_ID
-
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist
-
Aktivieren Sie die Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, BigQuery, Cloud Pub/Sub, Cloud Datastore, und Cloud Resource Manager APIs:
gcloud services enable dataflow
compute_component logging storage_component storage_api bigquery pubsub datastore.googleapis.com cloudresourcemanager.googleapis.com -
Erstellen Sie Anmeldedaten zur Authentifizierung für Ihr Google-Konto:
gcloud auth application-default login
-
Gewähren Sie Ihrem Google-Konto Rollen. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:
roles/iam.serviceAccountUser
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:EMAIL_ADDRESS" --role=ROLE
- Ersetzen Sie
PROJECT_ID
durch Ihre Projekt-ID. - Ersetzen Sie
EMAIL_ADDRESS
durch Ihre E-Mail-Adresse. - Ersetzen Sie
ROLE
durch jede einzelne Rolle.
- Ersetzen Sie
- Installieren Sie die Google Cloud CLI.
-
Führen Sie folgenden Befehl aus, um die gcloud CLI zu initialisieren:
gcloud init
-
Google Cloud-Projekt erstellen oder auswählen.
-
Erstellen Sie ein Google Cloud-Projekt:
gcloud projects create PROJECT_ID
-
Wählen Sie das von Ihnen erstellte Google Cloud-Projekt aus:
gcloud config set project PROJECT_ID
-
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist
-
Aktivieren Sie die Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, BigQuery, Cloud Pub/Sub, Cloud Datastore, und Cloud Resource Manager APIs:
gcloud services enable dataflow
compute_component logging storage_component storage_api bigquery pubsub datastore.googleapis.com cloudresourcemanager.googleapis.com -
Erstellen Sie Anmeldedaten zur Authentifizierung für Ihr Google-Konto:
gcloud auth application-default login
-
Gewähren Sie Ihrem Google-Konto Rollen. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:
roles/iam.serviceAccountUser
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:EMAIL_ADDRESS" --role=ROLE
- Ersetzen Sie
PROJECT_ID
durch Ihre Projekt-ID. - Ersetzen Sie
EMAIL_ADDRESS
durch Ihre E-Mail-Adresse. - Ersetzen Sie
ROLE
durch jede einzelne Rolle.
- Ersetzen Sie
-
Erstellen Sie einen Cloud Storage-Bucket und konfigurieren Sie ihn so:
-
Legen Sie die Speicherklasse auf
S
(Standard). -
Legen Sie als Speicherort Folgendes fest:
US
(USA) -
Ersetzen Sie
BUCKET_NAME
durch einen eindeutigen Bucket-Namen. Der Bucket-Name darf keine vertraulichen Informationen enthalten, da der Bucket-Namespace global und öffentlich sichtbar ist.
gsutil mb -c STANDARD -l US gs://BUCKET_NAME
-
Legen Sie die Speicherklasse auf
Weisen Sie Ihrem Compute Engine-Standarddienstkonto Rollen zu. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:
roles/dataflow.admin
,roles/dataflow.worker
undroles/storage.objectAdmin
.gcloud projects add-iam-policy-binding PROJECT_ID --member="serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com" --role=SERVICE_ACCOUNT_ROLE
- Ersetzen Sie
PROJECT_ID
durch Ihre Projekt-ID. - Ersetzen Sie
PROJECT_NUMBER
durch die Projekt-ID. Ihre Projektnummer finden Sie unter Projekte identifizieren oder verwenden Sie den Befehlgcloud projects describe
. - Ersetzen Sie
SERVICE_ACCOUNT_ROLE
durch jede einzelne Rolle.
- Ersetzen Sie
- Kopieren Sie die Google Cloud-Projekt-ID und den Namen des Cloud Storage-Buckets. Sie benötigen diese Werte später in diesem Dokument.
Umgebung einrichten
In diesem Abschnitt richten Sie über die Eingabeaufforderung eine isolierte virtuelle Python-Umgebung ein, um Ihr Pipeline-Projekt mit venv auszuführen. Auf diese Weise können Sie die Abhängigkeiten eines Projekts von den Abhängigkeiten anderer Projekte isolieren.
Wenn Ihnen im Moment keine Eingabeaufforderung zur Verfügung steht, können Sie Cloud Shell verwenden. Der Paketmanager für Python 3 ist in Cloud Shell bereits installiert, sodass Sie mit dem Erstellen einer virtuellen Umgebung fortfahren können.
So installieren Sie Python und erstellen dann eine virtuelle Umgebung:
- Prüfen Sie, ob Python 3 und
pip
in Ihrem System ausgeführt werden:python --version python -m pip --version
- Installieren Sie gegebenenfalls Python 3 und richten Sie dann eine virtuelle Python-Umgebung ein. Folgen Sie dazu der Anleitung in den Abschnitten Python installieren und venv einrichten auf der Seite Python-Entwicklungsumgebung einrichten. Wenn Sie Python 3.10 oder höher verwenden, müssen Sie auch Dataflow Runner V2 aktivieren. Wenn Sie Runner V1 verwenden möchten, verwenden Sie Python 3.9 oder eine frühere Version.
Nachdem Sie die Kurzanleitung durchgearbeitet haben, können Sie die virtuelle Umgebung mit dem Befehl deactivate
deaktivieren.
Apache Beam SDK abrufen
Das Apache Beam SDK ist ein Open-Source-Programmiermodell für Datenpipelines. Sie definieren eine Pipeline mit einem Apache Beam-Programm und wählen dann einen Runner wie Dataflow aus, um Ihre Pipeline auszuführen.
So laden Sie das Apache Beam SDK herunter und installieren es:
- Prüfen Sie, ob Sie sich in der virtuellen Python-Umgebung befinden, die Sie im vorherigen Abschnitt erstellt haben.
Die Eingabeaufforderung beginnt mit
<env_name>
, wobeienv_name
der Name der virtuellen Umgebung ist. - Installieren Sie den Paketstandard Python-Rad:
pip install wheel
- Installieren Sie die neueste Version des Apache Beam SDK für Python:
pip install 'apache-beam[gcp]'
Je nach Verbindung kann die Installation etwas dauern.
Pipeline lokal ausführen
Wenn Sie sehen möchten, wie eine Pipeline lokal ausgeführt wird, verwenden Sie ein fertiges Python-Modul für das Beispiel wordcount
, das im Paket apache_beam
enthalten ist.
Das Pipeline-Beispiel wordcount
führt Folgendes aus:
Sie nimmt eine Textdatei als Eingabe an.
Sie finden die Textdatei in einem Cloud Storage-Bucket mit dem Ressourcennamen
gs://dataflow-samples/shakespeare/kinglear.txt
.- Sie parst jede Zeile und unterteilt sie in Wörter.
- Sie misst die Häufigkeit der tokenisierten Wörter.
Führen Sie die folgenden Schritte aus, um die Pipeline wordcount
lokal bereitzustellen:
- Führen Sie auf Ihrem lokalen Terminal das Beispiel
wordcount
aus:python -m apache_beam.examples.wordcount \ --output outputs
- Sehen Sie sich die Ausgabe der Pipeline an:
more outputs*
- Drücken Sie zum Beenden q.
wordcount.py
auf dem GitHub für Apache Beam ansehen.
Pipeline im Dataflow-Dienst ausführen
In diesem Abschnitt führen Sie diewordcount
-Beispielpipeline aus dem Paket apache_beam
im Dataflow-Dienst aus. In diesem Beispiel wird DataflowRunner
als Parameter für --runner
angegeben.
- Führen Sie die Pipeline aus:
python -m apache_beam.examples.wordcount \ --region DATAFLOW_REGION \ --input gs://dataflow-samples/shakespeare/kinglear.txt \ --output gs://STORAGE_BUCKET/results/outputs \ --runner DataflowRunner \ --project PROJECT_ID \ --temp_location gs://STORAGE_BUCKET/tmp/
Dabei gilt:
DATAFLOW_REGION
: der regionale Endpunkt, an dem Sie den Dataflow-Job bereitstellen möchten, z. B.europe-west1
.Das Flag
--region
überschreibt die Standardregion, die auf dem Metadatenserver, auf Ihrem lokalen Client oder in Umgebungsvariablen festgelegt ist.STORAGE_BUCKET
: Cloud Storage-Name, den Sie zuvor kopiert haben.PROJECT_ID
: Google Cloud-Projekt-ID, die Sie zuvor kopiert haben.
Ergebnisse ansehen
Wenn Sie eine Pipeline mit Dataflow ausführen, werden die Ergebnisse in einem Cloud Storage-Bucket gespeichert. Prüfen Sie in diesem Abschnitt, ob die Pipeline mit der Cloud Console oder dem lokalen Terminal ausgeführt wird.
Google Cloud Console
So rufen Sie Ihre Ergebnisse in der Cloud Console auf:
- Rufen Sie in der Google Cloud Console die Dataflow-Seite Jobs auf.
Auf der Seite Jobs werden Details zum
wordcount
-Job angezeigt, z. B. der Status Aktiv und dann Erfolgreich. - Zum Cloud Storage-Browser
Klicken Sie in der Liste der Buckets in Ihrem Projekt auf den Storage-Bucket, den Sie zuvor erstellt haben.
Im Verzeichnis
wordcount
werden die von Ihrem Job erstellten Ausgabedateien angezeigt.
Lokales Terminal
Um die Ergebnisse von Ihrem Terminal aus aufzurufen, verwenden Sie das gsutil
-Tool.
Sie können die Befehle auch über Cloud Shell ausführen.
- Listen Sie die Ausgabedateien auf:
gsutil ls -lh "gs://STORAGE_BUCKET/results/outputs*"
- Sehen Sie sich die Ergebnisse in den Ausgabedateien an:
gsutil cat "gs://STORAGE_BUCKET/results/outputs*"
Ersetzen Sie STORAGE_BUCKET
durch den Namen des Cloud Pipeline-Buckets, der im Pipelineprogramm verwendet wird.
Pipelinecode ändern
Diewordcount
-Pipeline in den vorherigen Beispielen unterscheidet zwischen groß- und kleingeschriebenen Wörtern.
In den folgenden Schritten wird gezeigt, wie Sie die Pipeline so ändern, dass die Groß- und Kleinschreibung bei der wordcount
-Pipeline nicht berücksichtigt wird.
- Laden Sie auf Ihrem lokalen Computer die neueste Kopie des
wordcount
-Codes aus dem Apache Beam GitHub-Repository herunter. - Führen Sie die Pipeline über das lokale Terminal aus:
python wordcount.py --output outputs
- Rufen Sie die Ergebnisse auf:
more outputs*
- Drücken Sie zum Beenden q.
- Öffnen Sie die Datei
wordcount.py
in einem Editor Ihrer Wahl. - Sehen Sie sich die Pipelineschritte in der Funktion
run
an:counts = ( lines | 'Split' >> (beam.ParDo(WordExtractingDoFn()).with_output_types(str)) | 'PairWithOne' >> beam.Map(lambda x: (x, 1)) | 'GroupAndSum' >> beam.CombinePerKey(sum))
Nach
split
werden die Zeilen in Wörter als Strings unterteilt. - Wenn Sie die Strings in Kleinbuchstaben darstellen möchten, ändern Sie die Zeile nach
split
:counts = ( lines | 'Split' >> (beam.ParDo(WordExtractingDoFn()).with_output_types(str)) | 'lowercase' >> beam.Map(str.lower) | 'PairWithOne' >> beam.Map(lambda x: (x, 1)) | 'GroupAndSum' >> beam.CombinePerKey(sum))
Durch diese Änderung wird die Funktionstr.lower
jedem Wort zugeordnet. Diese Zeile entsprichtbeam.Map(lambda word: str.lower(word))
. - Speichern Sie die Datei und führen Sie den geänderten Job
wordcount
aus:python wordcount.py --output outputs
- Sehen Sie sich die Ergebnisse der geänderten Pipeline an:
more outputs*
- Drücken Sie zum Beenden q.
Bereinigen
Löschen Sie das Google Cloud-Projekt mit den Ressourcen, damit Ihrem Google Cloud-Konto die auf dieser Seite verwendeten Ressourcen nicht in Rechnung gestellt werden.
- Wechseln Sie in der Google Cloud Console zur Seite Cloud Storage-Browser.
- Klicken Sie auf das Kästchen neben dem Bucket, der gelöscht werden soll.
- Klicken Sie zum Löschen des Buckets auf Löschen und folgen Sie der Anleitung.
-
Optional: Widerrufen Sie die von Ihnen erstellten Anmeldedaten für die Authentifizierung und löschen Sie die lokale Datei mit den Anmeldedaten:
gcloud auth application-default revoke
-
Optional: Widerrufen Sie Anmeldedaten von der gcloud-CLI.
gcloud auth revoke
Wenn Sie Ihr Projekt beibehalten, widerrufen Sie die Rollen, die Sie dem Compute Engine-Standarddienstkonto zugewiesen haben. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:
roles/dataflow.admin
,roles/dataflow.worker
undroles/storage.objectAdmin
.gcloud projects remove-iam-policy-binding PROJECT_ID \ --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \ --role=ROLE
Nächste Schritte
- Mehr über das Apache Beam-Programmiermodell erfahren
- Pipeline mit einem Apache Beam-Notebook interaktiv entwickeln
- Eigene Pipeline entwerfen und erstellen
- Beispiele für WordCount und Mobile Gaming.