Salesforce-Batch-Quell-Plug-in zum Analysieren von Lead-Daten in BigQuery verwenden

Hier erfahren Sie, wie Sie das Salesforce-Batch-Quell-Plug-in in Cloud Data Fusion zum Analysieren von Lead-Daten in BigQuery verwenden.


Klicken Sie auf Anleitung, um die Schritt-für-Schritt-Anleitung für diese Aufgabe direkt in der Google Cloud Console auszuführen:

Anleitung


Szenario

Stellen Sie sich vor, eine Marketingleiterin plant eine zielgerichtete E-Mail-Marketingkampagne, um ein neues Produkt zu bewerben. Sie haben eine Liste mit Leads in Salesforce Sales Cloud. Bevor Sie eine gezielte Kampagne erstellen, sollten Sie das Salesforce-Batch-Quell-Plug-in in Cloud Data Fusion verwenden, um bestimmte Lead-Daten zu extrahieren, um Ihre Zielgruppe besser zu verstehen.

Hinweise

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  5. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  6. Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc APIs aktivieren.

    Aktivieren Sie die APIs

  7. Erstellen Sie eine Cloud Data Fusion-Instanz.
  8. Konfigurieren Sie eine Verbindung zur Salesforce API, indem Sie eine verbundene Salesforce-Anwendung für Cloud Data Fusion erstellen.

Berechtigungen verwalten

Erstellen Sie die erforderlichen benutzerdefinierten Rollen und Berechtigungen und weisen Sie sie zu.

Benutzerdefinierte Rolle erstellen und Berechtigungen hinzufügen

  1. Öffnen Sie in der Google Cloud Console die Seite Rollen.

    Zur Seite "Rollen"

  2. Klicken Sie auf __Create Role__ (Rolle erstellen).

  3. Geben Sie im Feld Titel Custom Role-Tutorial ein.

  4. Klicken Sie auf Berechtigungen hinzufügen.

  5. Wählen Sie im Fenster Berechtigungen hinzufügen die folgenden Berechtigungen aus und klicken Sie auf Hinzufügen:

    • bigquery.datasets.create
    • bigquery.jobs.create
    • storage.buckets.create
  6. Klicken Sie auf Erstellen.

Dem Compute Engine-Standarddienstkonto eine benutzerdefinierte Rolle zuweisen

  1. Rufen Sie die Seite Cloud Data Fusion-Seite Instanzen auf.

    Zu den Instanzen

  2. Klicken Sie auf den Namen Ihrer Instanz.

  3. Notieren Sie sich das Compute Engine-Standarddienstkonto. Die Seite mit den Instanzdetails enthält diese Informationen.

    Der Cloud Data Fusion-standardmäßiges Compute Engine Dienstkonto-Name hat das Format CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Rufen Sie die IAM-Seite auf.

    IAM aufrufen

  5. Geben Sie in der Leiste Filer den Namen Ihres Compute Engine-Standarddienstkontos ein.

  6. Klicken Sie für Ihr Compute Engine-Standarddienstkonto auf Bearbeiten.

  7. Klicken Sie auf Weitere Rolle hinzufügen.

  8. Wählen Sie im Feld Rolle auswählen die Option Anleitung für benutzerdefinierte Rollen aus.

  9. Klicken Sie auf Speichern.

Batch-Quell-Plug-in für Cloud Data Fusion Salesforce konfigurieren

  1. Rufen Sie die Seite Cloud Data Fusion-Seite Instanzen auf.

    Zu den Instanzen

  2. Klicken Sie für die Instanz auf Instanz anzeigen. Die Weboberfläche von Cloud Data Fusion wird geöffnet.

  3. Rufe die Seite Studio auf.

  4. Klicken Sie auf Hub.

  5. Geben Sie in der Suchleiste Salesforce ein.

  6. Klicken Sie auf Salesforce-Plug-ins und dann auf Bereitstellen.

  7. Klicken Sie im Fenster Bereitstellung der Salesforce-Plug-ins auf Fertigstellen.

    Wenn die Bereitstellung abgeschlossen ist, wird ein Dialogfeld mit einer Erfolgsmeldung angezeigt.

  8. Klicken Sie in diesem Dialogfeld auf Pipeline erstellen.

    Die Seite „Cloud Data Fusion Studio“ wird angezeigt.

  9. Wählen Sie als Typ Ihrer Datenpipeline Datenpipeline – Batch aus.

  10. Klicken Sie im Menü Source (Quelle) auf Salesforce.

  11. Wechseln Sie zum Knoten Salesforce und klicken Sie auf Eigenschaften. Die Seite mit den Eigenschaften des Salesforce-Plug-ins wird geöffnet.

  12. Geben Sie im Feld Referenzname einen Namen für die Quelle ein. Beispiel: Leads_generated

  13. Klicken Sie im Bereich Verbindung auf die Ein/Aus-Schaltfläche Verbindung verwenden.

  14. Klicken Sie auf Verbindungen durchsuchen. Das Fenster Browse connection (Verbindungen suchen) wird geöffnet.

  15. Klicken Sie auf Verbindung hinzufügen und wählen Sie Salesforce aus.

  16. Klicken Sie im Fenster Salesforce-Verbindung erstellen auf den Tab Konfiguration und gehen Sie so vor:

    1. Geben Sie im Feld Name einen Namen ein, um die Verbindung zu identifizieren, z. B. Salesforce_connection.

    2. Geben Sie im Bereich Anmeldedaten die folgenden Informationen zu Ihrem Salesforce-Konto ein:

      • Nutzername
      • Passwort
      • Consumer-Key
      • Consumer-Secret
      • Sicherheitstoken
    3. Klicken Sie auf Test connection (Verbindung testen). Wenn die eingegebenen Details korrekt sind, wird der Test mit der Meldung „Successfully connection“ (Erfolgreich verbunden) erfolgreich abgeschlossen.

    4. Klicken Sie auf Erstellen.

    5. Wählen Sie Salesforce_connection aus und gehen Sie zurück zur Seite mit den Eigenschaften des Salesforce-Plug-ins.

Daten aus dem Salesforce-Batch-Quell-Plug-in extrahieren

  1. Geben Sie auf der Seite mit den Eigenschaften des Salesforce-Plug-ins im Abschnitt SOQL-Abfrage die folgende Abfrage ein:

    Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
    

    Mit dieser Abfrage werden die Details eines potenziellen Leads, der zum Ausführen einer Kampagne erforderlich ist, aus dem sObject Lead abgerufen.

  2. Klicken Sie auf Schema abrufen, um die Gültigkeit des Objektschemas zu ermitteln.

  3. Verwenden Sie die folgenden Felder, um die Datensätze nach einem bestimmten Datum oder einer bestimmten Uhrzeit für die Ausführung der Kampagne zu filtern:

    • Zuletzt geändert nach dem
    • Zuletzt geändert vor dem
    • Laufzeit
    • Offset
SOQL-Abfrage zum Extrahieren von Daten

Daten mit dem Wrangler-Plug-in transformieren

So bereinigen und anreichern Sie Ihre Daten mit dem Wrangler-Plug-in in Cloud Data Fusion:

  1. Kehre zur Seite Studio zurück.

  2. Klicken Sie im Menü Transform auf Wrangler.

  3. Verbinden Sie Wrangler mit dem Salesforce-Batch-Quell-Plug-in von Salesforce.

  4. Gehen Sie zum Wrangler-Plug-in und klicken Sie auf Attribute. Daraufhin wird die Seite mit den Attributen des Wrangler-Plug-ins geöffnet.

  5. Achten Sie darauf, dass das Feld Input schema (Eingabeschema) ausgefüllt ist.

  6. Klicken Sie auf Wrangler.

  7. Wählen Sie im Bereich Verbindungen eine gültige Verbindung aus.

  8. Wählen Sie das sObject aus, das Sie umwandeln möchten, z. B. Lead.

  9. Transformieren Sie die Daten mit den erforderlichen Anweisungen:

    keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId,
    :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' '
    fill-null-or-empty :Email 'no email found'
    mask-number :Phone ########xxxxxxxx
    format-date :LastActivityDate yyyy-MM-dd HH:mm:ss
    drop :LastName,:FirstName
    
    Daten transformieren

Daten in BigQuery laden.

  1. Kehre zur Seite Studio zurück.

  2. Klicken Sie im Menü Senke auf BigQuery.

  3. Wechseln Sie zum Knoten BigQuery und klicken Sie auf Attribute. Die Seite mit den Attributen des BigQuery-Plug-ins wird geöffnet.

  4. Geben Sie im Bereich Basis im Feld Referenzname einen Namen zur Identifizierung der Senke ein. Beispiel: Leads_generated

  5. Geben Sie im Feld Dataset das Dataset ein, zu dem die Tabelle gehört. Beispiel: Salesforce_Leads

  6. Geben Sie im Feld Tabelle die Tabelle ein, in der die extrahierten Datensätze gespeichert werden sollen. Beispiel: Incoming_Open_Leads.

  7. Klicken Sie auf Validieren, um das Plug-in zu validieren.

Daten laden

Pipeline bereitstellen, planen und ausführen

  1. Klicken Sie auf Bereitstellen, um die Pipeline bereitzustellen.

  2. So richten Sie mithilfe von Planern einen geeigneten Aktualisierungsplan ein:

    1. Klicken Sie auf Schedule (Planen).
    2. Geben Sie die folgenden Informationen ein:

      • Pipelineausführungwiederholungen
      • Wiederholung: alle
      • Ab
      • Maximale Anzahl gleichzeitiger Ausführungen
      • Compute-Profile
    3. Klicken Sie auf Speichern und Zeitplan starten.

    Pipeline bereitstellen und ausführen

  3. Klicken Sie auf Ausführen, um die Pipeline auszuführen.

Datenextraktion und -aufnahme prüfen

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery:

    BigQuery aufrufen

  2. Suchen Sie nach dem Dataset Salesforce_Leads und dem Tabellennamen Incoming_Open_Leads, um die extrahierten Datensätze anzusehen.

  3. Klicken Sie zum Ausführen der Abfrage auf Abfrage.

Analysieren Sie die Lead-Daten, um Ihre Zielgruppe besser zu verstehen und maßgeschneiderte Kampagnen in großem Umfang durchzuführen.

Bereinigen

Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud-Konto die auf dieser Seite verwendeten Ressourcen in Rechnung gestellt werden.

Löschen Sie die Cloud Data Fusion-Instanz.

Folgen Sie der Anleitung, um die Cloud Data Fusion-Instanz zu löschen.

Projekt löschen

Am einfachsten vermeiden Sie weitere Kosten durch Löschen des für die Anleitung erstellten Projekts.

So löschen Sie das Projekt:

  1. Wechseln Sie in der Google Cloud Console zur Seite Ressourcen verwalten.

    Zur Seite „Ressourcen verwalten“

  2. Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
  3. Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.

Nächste Schritte