-
Authentifizierung
Authentifizierung für Cloud Data Fusion-Instanzen konfigurieren
-
Verbindung zu einer Cloud SQL-MySQL-Quelle herstellen
Private Cloud Data Fusion-Instanz mit einer privaten Cloud SQL-Instanz verbinden, die eine MySQL-Datenbank hostet
-
Instanz erstellen
Anleitung zum Erstellen einer Cloud Data Fusion-Instanz
-
Private IP-Instanz erstellen
Instanz mit einer privaten IP-Adresse erstellen
-
Instanz löschen
Anleitung zum Löschen einer Cloud Data Fusion-Instanz
-
Plug-in bereitstellen
Anleitung zum Bereitstellen eines Plug-ins über den Cloud Data Fusion Hub, um die Funktionen Ihrer Pipeline zu erweitern
-
Cloud Data Fusion aktivieren und deaktivieren
Cloud Data Fusion aktivieren und notwendige Schritte vor dem Deaktivieren des Dienstes
-
Pipelines exportieren und importieren
Pipelines im JSON-Format exportieren und in eine andere Cloud Data Fusion-Instanz importieren
-
Berechtigungen für Dienstkontonutzer erteilen
Damit Sie einen Dataproc-Cluster bereitstellen können, müssen Sie dem Dienstkonto Daten für Cloud Data Fusion zuweisen
-
Beschleuniger verwalten
Beschleuniger zum Einbinden spezieller Features in Ihre Pipelinejobs verwenden
-
Verbindungen verwalten
Verbindungen erstellen und verwenden
-
Rechnungen parsen
Rechnungen in Cloud Data Fusion mit dem Rechnungsparser-Plug-in in strukturierte Daten konvertieren
-
Push-down von Transformationen nach BigQuery
Anleitung zum Aktivieren von Transformations-Push-down zur Ausführung von
JOIN
-Vorgängen in BigQuery -
Aus einer PostgreSQL-Datenbank lesen
Daten aus einer PostgreSQL-Datenbank lesen
-
Aus einer SQL Server-Tabelle lesen
Daten aus einer SQL Server-Datenbank lesen
-
Daten aus mehreren SQL Server-Tabellen lesen
Daten aus mehreren SQL Server-Tabellen lesen
-
Pipeline für einen vorhandenen Dataproc-Cluster ausführen
Cloud Data Fusion-Pipeline für einen vorhandenen Dataproc-Cluster ausführen
-
Pipelines planen
Cloud Data Fusion-Pipeline nach Zeitplan ausführen
-
Cloud Data Fusion-Instanzen und -Pipelines aktualisieren
So aktualisieren Sie Ihre Cloud Data Fusion-Instanz und die zugehörigen Pipelines
-
Benachrichtigungen verwenden
Benachrichtigungen zu Datenpipelines in Cloud Data Fusion und Monitoring hinzufügen
-
Cloud DLP mit Cloud Data Fusion verwenden
Wie Sie Cloud Data Loss Prevention mit Cloud Data Fusion verwenden
-
Vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK) verwenden
Vom Kunden verwaltete Verschlüsselungsschlüssel mit Cloud Data Fusion verwenden
-
JDBC-Treiber in Cloud Data Fusion verwenden
Java Database Connectivity-Treiber in Cloud Data Fusion verwenden
-
Rollenbasierte Zugriffssteuerung verwenden
Erste Schritte mit der rollenbasierten Zugriffssteuerung in Cloud Data Fusion-Namespaces
-
Batch-Quell-Plug-in für SAP Table verwenden
Datenpipelines bereitstellen, konfigurieren und ausführen, die das SAP Table Batch Source-Plug-in verwenden
-
Trigger verwenden
Trigger für Cloud Data Fusion-Pipelines verwenden
-
VPC Service Controls mit Cloud Data Fusion verwenden
Wie Sie VPC Service Controls mit Cloud Data Fusion verwenden
-
Mit Callcenter-Daten arbeiten
How to use Contact Center AI Insights with your data in Cloud Data Fusion
Verbindung zu öffentlichen Datenquellen herstellen
-
Verbindung zu einer öffentlichen Quelle von einer privaten Instanz aus herstellen
Verbindung zu SaaS-Anwendungen (Software as a Service) und Clouds von Drittanbietern im öffentlichen Internet von einer privaten Cloud Data Fusion-Instanz aus herstellen, wenn Sie eine Pipeline entwickeln
-
Ausgehenden Traffic in einer privaten Instanz steuern
Ausgehenden Netzwerktraffics von Google Cloud durch Einschränken und Durchsetzen der Endpunkte steuern, die von einer Cloud Data Fusion-Instanz erreicht werden können
Replikation verwenden
-
Erste Schritte mit Replikation
Replikationsjobs in Cloud Data Fusion verwenden
-
Replikation für eine vorhandene Instanz aktivieren
Replikationsjobs in einer vorhandenen Cloud Data Fusion-Instanz aktivieren
-
Debezium-Argument an einen Replikationsjob übergeben
So aktualisieren Sie die Einstellungen für Replikationsjobs, wenn Sie ein Debezium-Laufzeitargument übergeben müssen
Mit Logs arbeiten
-
Audit-Logs ansehen
Cloud Data Fusion-Audit-Logs aufrufen
-
Pipeline-Logs in Cloud Logging aufrufen
Cloud Data Fusion-Pipeline-Logs in Cloud Logging aufrufen
-
Pipeline-Logs in Cloud Data Fusion aufrufen
Cloud Data Fusion-Pipeline-Logs direkt auf der Pipeline Studio-Seite aufrufen, auf der Sie Ihre Pipeline entwerfen