Informationen zu den unterstützten Connectors für Application Integration.
Aufgabe „Dataflow – Job erstellen“
Mit der Aufgabe Dataflow – Job erstellen können Sie einen Job in Cloud Dataflow erstellen, um eine Datenpipeline auszuführen, die mit einem der Apache Beam SDKs erstellt wurde.
Cloud Dataflow ist ein vollständig verwalteter Google Cloud-Dienst zum Ausführen von Stream- und Batch-Datenverarbeitungspipelines.
Hinweis
Führen Sie folgende Aufgaben in Ihrem Google Cloud-Projekt aus, bevor Sie die Aufgabe Dataflow – Job erstellen konfigurieren:
- Aktivieren Sie die Dataflow API (
dataflow.googleapis.com
). - Authentifizierungsprofil erstellen. Application Integration verwendet ein Authentifizierungsprofil, um eine Verbindung zu einem Authentifizierungsendpunkt für die Aufgabe Dataflow – Job erstellen herzustellen.
Informationen zum Zuweisen zusätzlicher Rollen oder Berechtigungen für ein Dienstkonto finden Sie unter Zugriff auf Ressourcen erteilen, ändern und entziehen.
Dataflow konfigurieren – Aufgabe „Job erstellen“
- Rufen Sie in der Google Cloud Console die Seite Application Integration auf.
- Klicken Sie im Navigationsmenü auf Integrations (Integrationen).
Die Seite Integrationen wird angezeigt. Dort sind alle Integrationen aufgeführt, die im Google Cloud-Projekt verfügbar sind.
- Wählen Sie eine vorhandene Integration aus oder klicken Sie auf Integration erstellen, um eine neue zu erstellen.
Wenn Sie eine neue Integration erstellen, gehen Sie so vor:
- Geben Sie im Bereich Integration erstellen einen Namen und eine Beschreibung ein.
- Wählen Sie eine Region für die Integration aus.
- Wählen Sie ein Dienstkonto für die Integration aus. Sie können die Details des Dienstkontos einer Integration jederzeit im Bereich Integrationsübersicht in der Symbolleiste für Integrationen ändern oder aktualisieren.
- Klicken Sie auf Erstellen.
Dadurch wird die Integration auf der Seite Integrationseditor geöffnet.
- Klicken Sie in der Navigationsleiste des Integrationseditors auf Aufgaben, um die Liste der verfügbaren Aufgaben und Connectors aufzurufen.
- Klicken Sie auf das Element Dataflow – Job erstellen im Integrationseditor.
- Klicken Sie im Designer auf das Element Dataflow – Job erstellen, um den Konfigurationsbereich der Aufgabe Dataflow – Job erstellen aufzurufen.
- Rufen Sie die Authentifizierung auf und wählen Sie ein vorhandenes Authentifizierungsprofil aus, das Sie verwenden möchten.
Optional. Wenn Sie vor der Konfiguration der Aufgabe kein Authentifizierungsprofil erstellt haben, klicken Sie auf + Neues Authentifizierungsprofil und folgen Sie der Anleitung unter Neues Authentifizierungsprofil erstellen.
- Wechseln Sie zu Aufgabeneingabe und konfigurieren Sie die angezeigten Eingabefelder mit der folgenden Tabelle Aufgabeneingabeparameter.
Änderungen an den Eingabefeldern werden automatisch gespeichert.
Aufgabeneingabeparameter
In der folgenden Tabelle werden die Eingabeparameter der Aufgabe Dataflow – Job erstellen beschrieben:
Attribut | Datentyp | Beschreibung |
---|---|---|
Region | String | Cloud Dataflow-Speicherort für den Job. |
ProjectsId | String | Ihre Google Cloud-Projekt-ID. |
Standort | String | Der regionale Endpunkt, der diesen Job enthält. |
Anfrage | JSON | Siehe JSON-Struktur von Anfragen. |
Aufgabenausgabe
Die Aufgabe Dataflow – Job erstellen gibt die neu erstellte Instanz des Jobs zurück.
Fehlerbehebungsstrategie
Eine Strategie zur Fehlerbehandlung für eine Aufgabe legt die Aktion fest, die ausgeführt werden soll, wenn die Aufgabe aufgrund eines temporären Fehlers fehlschlägt. Informationen zur Verwendung einer Fehlerbehandlungsstrategie und zu den verschiedenen Arten von Fehlerbehandlungsstrategien finden Sie unter Strategien zur Fehlerbehebung.
Kontingente und Limits
Weitere Informationen zu allen Kontingenten und Limits finden Sie unter Kontingente und Limits.
Nächste Schritte
- Edges und Edge-Bedingungen hinzufügen
- Integration testen und veröffentlichen
- Trigger konfigurieren
- Aufgabe „Datenabgleich“ hinzufügen
- Alle Aufgaben für Google Cloud-Dienste ansehen