Salesforce-Batch-Quell-Plug-in zum Analysieren von Leads-Daten in BigQuery verwenden

Informationen zum Verwenden des Salesforce-Batch-Quell-Plug-ins in Cloud Data Fusion, um Leads-Daten in BigQuery zu analysieren


Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt in der Google Cloud Console aufzurufen.

Anleitung


Szenario

Angenommen, ein Marketingmanager plant eine gezielte E-Mail-Marketingkampagne zur Bewerbung eines neuen Produkts. Sie haben eine Liste mit Leads in Salesforce Sales Cloud. Bevor Sie eine zielgerichtete Kampagne erstellen, sollten Sie sollten Sie das Batch-Quell-Plug-in von Salesforce verwenden, in Cloud Data Fusion, um bestimmte Lead-Daten zu extrahieren.

Hinweise

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc APIs.

    Enable the APIs

  7. Erstellen Sie eine Cloud Data Fusion-Instanz.
  8. Konfigurieren Sie eine Verbindung zur Salesforce API, indem Sie eine verbundene Salesforce-Anwendung für Cloud Data Fusion erstellen.

Berechtigungen verwalten

Erstellen Sie die erforderlichen benutzerdefinierten Rollen und Berechtigungen und weisen Sie sie zu.

Benutzerdefinierte Rolle erstellen und Berechtigungen hinzufügen

  1. Öffnen Sie in der Google Cloud Console die Seite Rollen.

    Zur Seite "Rollen"

  2. Klicken Sie auf Rolle erstellen.

  3. Geben Sie im Feld Titel Custom Role-Tutorial ein.

  4. Klicken Sie auf Berechtigungen hinzufügen.

  5. Wählen Sie im Fenster Berechtigungen hinzufügen die folgenden Berechtigungen aus und klicken Sie auf Hinzufügen:

    • bigquery.datasets.create
    • bigquery.jobs.create
    • storage.buckets.create
  6. Klicken Sie auf Erstellen.

Dem Compute Engine-Standarddienstkonto eine benutzerdefinierte Rolle zuweisen

  1. Rufen Sie die Seite Cloud Data Fusion-Seite Instanzen auf.

    Zu den Instanzen

  2. Klicken Sie auf den Namen Ihrer Instanz.

  3. Notieren Sie sich das Compute Engine-Standarddienstkonto. Die Seite mit den Instanzdetails enthält diese Informationen.

    Der Cloud Data Fusion-standardmäßiges Compute Engine Dienstkonto-Name hat das Format CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Rufen Sie die IAM-Seite auf.

    IAM aufrufen

  5. Geben Sie in der Filterleiste den Namen Ihres Compute Engine-Standarddienstkontos ein.

  6. Klicken Sie für Ihr Compute Engine-Standarddienstkonto auf Bearbeiten.

  7. Klicken Sie auf Weitere Rolle hinzufügen.

  8. Wählen Sie im Feld Rolle auswählen die Option Anleitung für benutzerdefinierte Rollen aus.

  9. Klicken Sie auf Speichern.

Salesforce-Batch-Quell-Plug-in für Cloud Data Fusion konfigurieren

  1. Rufen Sie die Seite Cloud Data Fusion-Seite Instanzen auf.

    Zu den Instanzen

  2. Klicken Sie für Ihre Instanz auf Instanz anzeigen. Die Weboberfläche von Cloud Data Fusion wird geöffnet.

  3. Rufen Sie die Seite Studio auf.

  4. Klicken Sie auf Hub.

  5. Geben Sie in der Suchleiste Salesforce ein.

  6. Klicken Sie auf Salesforce-Plug-ins und dann auf Bereitstellen.

  7. Klicken Sie im Fenster Salesforce-Plug-ins bereitstellen auf Fertigstellen.

    Nach Abschluss der Bereitstellung wird ein Dialogfeld mit einer Erfolgsmeldung angezeigt.

  8. Klicken Sie in diesem Dialogfeld auf Pipeline erstellen.

    Die Seite „Cloud Data Fusion Studio“ wird angezeigt.

  9. Wählen Sie als Typ der Datenpipeline Datenpipeline – Batch aus.

  10. Klicken Sie im Menü Quelle auf Salesforce.

  11. Wechseln Sie zum Knoten Salesforce und klicken Sie auf Attribute. Daraufhin wird die Seite mit den Attributen des Salesforce-Plug-ins geöffnet.

  12. Geben Sie im Feld Referenzname einen Namen für die Quelle ein. Beispiel: Leads_generated

  13. Klicken Sie im Bereich Verbindung auf die Ein/Aus-Schaltfläche Verbindung verwenden.

  14. Klicken Sie auf Verbindungen durchsuchen. Das Fenster Verbindungen durchsuchen wird geöffnet.

  15. Klicken Sie auf Verbindung hinzufügen und wählen Sie Salesforce aus.

  16. Klicken Sie im Fenster Salesforce-Verbindung erstellen auf das Tab Konfiguration und gehen Sie so vor:

    1. Geben Sie im Feld Name einen Namen ein, um Ihre Verbindung zu identifizieren, z. B. Salesforce_connection.

    2. Geben Sie im Abschnitt Anmeldedaten die folgenden Details Ihres Salesforce-Kontos ein:

      • Nutzername
      • Passwort
      • Consumer-Key
      • Consumer-Secret
      • Sicherheitstoken
    3. Klicken Sie auf Test connection (Verbindung testen). Wenn die eingegebenen Details korrekt sind, ist der Test erfolgreich und die Meldung „Verbindung erfolgreich“ wird angezeigt.

    4. Klicken Sie auf Erstellen.

    5. Wählen Sie Salesforce_connection aus und kehren Sie zur Seite mit den Salesforce-Plug-in-Properties zurück.

Daten aus dem Batch-Quell-Plug-in von Salesforce extrahieren

  1. Geben Sie auf der Seite mit den Salesforce-Plug-in-Attributen im Abschnitt SOQL-Abfrage die folgende Abfrage ein:

    Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
    

    Mit dieser Abfrage werden die Details eines potenziellen Leads aus dem S-Objekt Lead abgerufen, die für die Durchführung einer Kampagne erforderlich sind.

  2. Klicken Sie auf Schema abrufen, um die Gültigkeit des Objektschemas zu prüfen.

  3. Wenn Sie die Daten nach einem bestimmten Datum oder einer bestimmten Uhrzeit für die Ausführung der Kampagne filtern möchten, verwenden Sie die folgenden Felder:

    • Zuletzt geändert nach dem
    • Zuletzt geändert vor dem
    • Laufzeit
    • Offset
SOQL-Abfrage zum Extrahieren von Daten

Daten mit dem Wrangler-Plug-in transformieren

So bereinigen und anreichern Sie Ihre Daten mit dem Wrangler-Plug-in in Cloud Data Fusion:

  1. Kehren Sie zur Seite Studio zurück.

  2. Klicken Sie im Menü Transform auf Wrangler.

  3. Verbinden Sie Wrangler mit dem Salesforce-Batch-Quell-Plug-in von Salesforce.

  4. Gehen Sie zum Wrangler-Plug-in und klicken Sie auf Attribute. Daraufhin wird die Seite mit den Attributen des Wrangler-Plug-ins geöffnet.

  5. Das Eingabeschema muss ausgefüllt sein.

  6. Klicken Sie auf Wrangler.

  7. Wählen Sie im Bereich Verbindungen eine gültige Verbindung aus.

  8. Wählen Sie das sObject aus, das Sie transformieren möchten, z. B. Lead.

  9. Transformieren Sie die Daten mit den erforderlichen Direktiven:

    keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId,
    :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' '
    fill-null-or-empty :Email 'no email found'
    mask-number :Phone ########xxxxxxxx
    format-date :LastActivityDate yyyy-MM-dd HH:mm:ss
    drop :LastName,:FirstName
    
    Daten transformieren

Daten in BigQuery laden.

  1. Kehren Sie zur Seite Studio zurück.

  2. Klicken Sie im Menü Senke auf BigQuery.

  3. Wechseln Sie zum Knoten BigQuery und klicken Sie auf Attribute. Die Seite mit den Attributen des BigQuery-Plug-ins wird geöffnet.

  4. Geben Sie im Abschnitt Grundlegend im Feld Referenzname einen Namen ein, um diese Senke zu identifizieren. Beispiel: Leads_generated.

  5. Geben Sie im Feld Dataset das Dataset ein, zu dem die Tabelle gehört. Beispiel: Salesforce_Leads

  6. Geben Sie im Feld Table (Tabelle) die Tabelle ein, in der die extrahierten Datensätze gespeichert werden sollen. Beispiel: Incoming_Open_Leads.

  7. Klicken Sie auf Validieren, um das Plug-in zu validieren.

Daten laden

Pipeline bereitstellen, planen und ausführen

  1. Klicken Sie zum Bereitstellen der Pipeline auf Bereitstellen

  2. So richten Sie mit Schedulern einen geeigneten Aktualisierungszeitplan ein:

    1. Klicken Sie auf Planen.
    2. Geben Sie die folgenden Informationen ein:

      • Pipelineausführungwiederholungen
      • Wiederholung: alle
      • Ab
      • Maximale Anzahl gleichzeitiger Ausführungen
      • Compute-Profile
    3. Klicken Sie auf Speichern und Zeitplan starten.

    Pipeline bereitstellen und ausführen

  3. Klicken Sie zum Ausführen der Pipeline auf Ausführen.

Datenextraktion und -aufnahme prüfen

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery:

    BigQuery aufrufen

  2. Suchen Sie nach dem Dataset Salesforce_Leads und dem Tabellennamen Incoming_Open_Leads, um die extrahierten Datensätze aufzurufen.

  3. Klicken Sie zum Ausführen der Abfrage auf Abfrage.

Analysieren Sie die Lead-Daten, um Ihre Zielgruppe besser zu verstehen und maßgeschneiderte Kampagnen im großen Stil zu schalten.

Bereinigen

Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen in Rechnung gestellt werden:

Löschen Sie die Cloud Data Fusion-Instanz.

Folgen Sie der Anleitung, um die Cloud Data Fusion-Instanz zu löschen.

Projekt löschen

Am einfachsten vermeiden Sie weitere Kosten durch Löschen des für die Anleitung erstellten Projekts.

So löschen Sie das Projekt:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Nächste Schritte