Utiliser le plug-in de source par lot Salesforce pour analyser les données sur les prospects dans BigQuery

Découvrez comment utiliser le plug-in de source par lot Salesforce dans Cloud Data Fusion pour analyser les données sur les prospects dans BigQuery.


Pour obtenir des instructions détaillées sur cette tâche directement dans la console Google Cloud, cliquez sur Visite guidée :

Visite guidée


Scénario

Prenons l'exemple d'un responsable marketing qui planifie une campagne par e-mail très ciblée. pour promouvoir un nouveau produit. Vous disposez d'une liste de prospects dans Salesforce Sales Cloud. Avant de créer une campagne ciblée, vous devez comprendre audience cible, utilisez le plug-in de source par lot Salesforce dans Cloud Data Fusion pour extraire des données spécifiques sur les prospects.

Avant de commencer

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc APIs.

    Enable the APIs

  7. Créez une instance Cloud Data Fusion.
  8. Configurez une connexion à l'API Salesforce en créant une application connectée Salesforce pour Cloud Data Fusion.

Gérer les autorisations

Créez et attribuez les rôles et autorisations personnalisés nécessaires.

Créer un rôle personnalisé et ajouter des autorisations

  1. Dans la console Google Cloud, accédez à la page Rôles.

    Accéder à la page "Rôles"

  2. Cliquez sur Créer un rôle.

  3. Dans le champ Titre, saisissez Custom Role-Tutorial.

  4. Cliquez sur Ajouter des autorisations.

  5. Dans la fenêtre Ajouter des autorisations, sélectionnez les autorisations suivantes et cliquez sur Ajouter :

    • bigquery.datasets.create
    • bigquery.jobs.create
    • storage.buckets.create
  6. Cliquez sur Créer.

Attribuer un rôle personnalisé au compte de service Compute Engine par défaut

  1. Accédez à la page Instances de Cloud Data Fusion :

    Accéder à la page "Instances"

  2. Cliquez sur le nom de votre instance.

  3. Notez le compte de service Compute Engine par défaut. La page de détails de l'instance contient ces informations.

    Le format du nom du compte de service Compute Engine par défaut de Cloud Data Fusion est CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Accédez à la page IAM :

    Accéder à IAM

  5. Dans la barre Filer, saisissez le nom de votre compte de service Compute Engine par défaut.

  6. Pour votre compte de service Compute Engine par défaut, cliquez sur Modifier.

  7. Cliquez sur Ajouter un autre rôle.

  8. Dans le champ Sélectionnez un rôle, choisissez Tutoriel des rôles personnalisés.

  9. Cliquez sur Enregistrer.

Configurer le plug-in de source par lot Salesforce Cloud Data Fusion

  1. Accédez à la page Instances de Cloud Data Fusion :

    Accéder à la page "Instances"

  2. Pour votre instance, cliquez sur Afficher l'instance. L'interface Web de Cloud Data Fusion s'ouvre.

  3. Accédez à la page Studio.

  4. Cliquez sur Hub.

  5. Dans la barre de recherche, saisissez Salesforce.

  6. Cliquez sur Plug-ins Salesforce, puis sur Déployer.

  7. Dans la fenêtre Déploiement des plug-ins Salesforce, cliquez sur Terminer.

    Une fois le déploiement terminé, une boîte de dialogue s'affiche avec un message de réussite.

  8. Dans cette boîte de dialogue, cliquez sur Créer un pipeline.

    La page Cloud Data Fusion Studio s'affiche.

  9. Sélectionnez Pipeline de données - lot comme type de pipeline de données.

  10. Dans le menu Source, cliquez sur Salesforce.

  11. Accédez au nœud Salesforce et cliquez sur Propriétés. La page des propriétés du plug-in Salesforce s'ouvre.

  12. Dans le champ Nom de la référence, saisissez le nom de la source. Exemple : Leads_generated.

  13. Dans la section Connexion, cliquez sur le bouton Utiliser la connexion.

  14. Cliquez sur Parcourir les connexions. La fenêtre Parcourir les connexions s'ouvre.

  15. Cliquez sur Ajouter une connexion, puis sélectionnez Salesforce.

  16. Dans la fenêtre Créer une connexion Salesforce, cliquez sur l'onglet Configuration et procédez comme suit :

    1. Dans le champ Nom, saisissez un nom pour identifier votre connexion (par exemple, Salesforce_connection).

    2. Dans la section Identifiants, saisissez les informations suivantes concernant votre compte Salesforce :

      • Nom d'utilisateur
      • Mot de passe
      • Clé du site consommateur
      • Clé secrète du site consommateur
      • Jeton de sécurité
    3. Cliquez sur Test connection (Tester la connexion). Si les informations saisies sont correctes, le test réussit et le message "Connexion réussie" s'affiche.

    4. Cliquez sur Créer.

    5. Sélectionnez Salesforce_connection et revenez à la page des propriétés du plug-in Salesforce.

Extraire les données du plug-in de source par lot Salesforce

  1. Sur la page des propriétés du plug-in Salesforce, dans la section Requête SOQL, saisissez la requête suivante :

    Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
    

    Cette requête extrait les informations d'un prospect potentiel requis pour exécuter une campagne à partir du sObject Lead.

  2. Pour déterminer la validité du schéma d'objet, cliquez sur Obtenir un schéma.

  3. Pour filtrer les enregistrements en fonction d'une date ou d'une heure spécifique pour diffuser la campagne, utilisez les champs suivants :

    • Dernière modification après le
    • Dernière modification avant le
    • Durée
    • Décalage (offset)
Requête SOQL pour extraire des données

Transformer des données à l'aide du plug-in Wrangler

Utilisez le plug-in Wrangler dans Cloud Data Fusion pour nettoyer et enrichir vos données :

  1. Revenez à la page Studio.

  2. Dans le menu Transformer, cliquez sur Wrangler.

  3. Connectez Wrangler au plug-in de source par lot Salesforce.

  4. Accédez au plug-in Wrangler, puis cliquez sur Propriétés. La page des propriétés du plug-in Wrangler s'ouvre.

  5. Assurez-vous que le schéma d'entrée est renseigné.

  6. Cliquez sur Wrangle.

  7. Dans le volet Connexions, sélectionnez une connexion valide.

  8. Sélectionnez le sObject que vous souhaitez transformer (par exemple, Lead).

  9. Transformez les données avec les directives requises :

    keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId,
    :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' '
    fill-null-or-empty :Email 'no email found'
    mask-number :Phone ########xxxxxxxx
    format-date :LastActivityDate yyyy-MM-dd HH:mm:ss
    drop :LastName,:FirstName
    
    Transformer les données

Charger des données dans BigQuery

  1. Revenez à la page Studio.

  2. Dans le menu Récepteur, cliquez sur BigQuery.

  3. Accédez au nœud BigQuery, puis cliquez sur Propriétés. La page des propriétés du plug-in BigQuery s'ouvre.

  4. Dans le champ Nom de la référence de la section Basique, saisissez un nom permettant d'identifier ce récepteur. Par exemple, Leads_generated.

  5. Dans le champ Ensemble de données, saisissez l'ensemble de données auquel appartient la table. Exemple : Salesforce_Leads.

  6. Dans le champ Table, saisissez la table dans laquelle les enregistrements extraits doivent être stockés. Par exemple, Incoming_Open_Leads.

  7. Pour valider le plug-in, cliquez sur Valider.

Charger les données

Déployer, planifier et exécuter le pipeline

  1. Pour déployer le pipeline, cliquez sur Déployer.

  2. Pour configurer un planning d'actualisation approprié à l'aide des planificateurs, procédez comme suit :

    1. Cliquez sur Programmer.
    2. Saisissez les informations suivantes :

      • Pipeline run repeats
      • Repeats every
      • À partir de
      • Max concurrent runs
      • Compute profiles
    3. Cliquez sur Enregistrer et démarrer la planification.

    Déployer et exécuter le pipeline

  3. Pour exécuter le pipeline, cliquez sur Exécuter.

Vérifier l'extraction et l'ingestion des données

  1. Dans la console Google Cloud, accédez à la page BigQuery.

    Accéder à BigQuery

  2. Recherchez l'ensemble de données Salesforce_Leads et le nom de la table Incoming_Open_Leads pour afficher les enregistrements extraits.

  3. Pour exécuter la requête, cliquez sur Requête.

Analysez les données sur les prospects pour mieux comprendre votre audience et diffuser des campagnes sur mesure à grande échelle.

Effectuer un nettoyage

Pour éviter que les ressources utilisées sur cette page soient facturées sur votre compte Google Cloud, procédez comme suit :

Supprimer l'instance Cloud Data Fusion

Suivez ces instructions pour supprimer votre instance Cloud Data Fusion.

Supprimer le projet

Le moyen le plus simple d'empêcher la facturation est de supprimer le projet que vous avez créé pour ce tutoriel.

Pour supprimer le projet :

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Étape suivante