Utiliser le plug-in de source par lot Salesforce pour analyser les données sur les prospects dans BigQuery

Découvrez comment utiliser le plug-in de source par lot Salesforce dans Cloud Data Fusion pour analyser les données sur les prospects dans BigQuery.


Pour obtenir des instructions détaillées sur cette tâche directement dans la console Google Cloud, cliquez sur Visite guidée :

Visite guidée


Scénario

Imaginons qu'un responsable marketing planifie une campagne marketing par e-mail très ciblée pour promouvoir un nouveau produit. Vous avez une liste de prospects dans Salesforce Sales Cloud. Avant de créer une campagne ciblée, pour mieux comprendre votre audience cible, vous devez utiliser le plug-in de source par lot Salesforce dans Cloud Data Fusion afin d'extraire des données spécifiques sur les prospects.

Avant de commencer

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  3. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  4. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  5. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  6. Activer les API Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc.

    Activer les API

  7. Créez une instance Cloud Data Fusion.
  8. Configurez une connexion à l'API Salesforce en créant une application connectée Salesforce pour Cloud Data Fusion.

Gérer les autorisations

Créez et attribuez les rôles et autorisations personnalisés nécessaires.

Créer un rôle personnalisé et ajouter des autorisations

  1. Dans la console Google Cloud, accédez à la page Rôles.

    Accéder à la page "Rôles"

  2. Cliquez sur Créer un rôle.

  3. Dans le champ Title (Titre), saisissez Custom Role-Tutorial.

  4. Cliquez sur Ajouter des autorisations.

  5. Dans la fenêtre Ajouter des autorisations, sélectionnez les autorisations suivantes et cliquez sur Ajouter :

    • bigquery.datasets.create
    • bigquery.jobs.create
    • storage.buckets.create
  6. Cliquez sur Créer.

Attribuer un rôle personnalisé au compte de service Compute Engine par défaut

  1. Accédez à la page Instances de Cloud Data Fusion :

    Accéder à la page Instances

  2. Cliquez sur le nom de votre instance.

  3. Notez le compte de service Compute Engine par défaut. La page de détails de l'instance contient ces informations.

    Le format du nom du compte de service Compute Engine par défaut de Cloud Data Fusion est CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Accédez à la page IAM :

    Accéder à IAM

  5. Dans la barre Filer, saisissez le nom de votre compte de service Compute Engine par défaut.

  6. Pour votre compte de service Compute Engine par défaut, cliquez sur Modifier.

  7. Cliquez sur Ajouter un autre rôle.

  8. Dans le champ Sélectionnez un rôle, choisissez Tutoriel des rôles personnalisés.

  9. Cliquez sur Enregistrer.

Configurer le plug-in de source par lot Salesforce Cloud Data Fusion

  1. Accédez à la page Instances de Cloud Data Fusion :

    Accéder à la page Instances

  2. Pour votre instance, cliquez sur Afficher l'instance. L'interface Web de Cloud Data Fusion s'ouvre.

  3. Accédez à la page Studio.

  4. Cliquez sur Hub.

  5. Dans la barre de recherche, saisissez Salesforce.

  6. Cliquez sur Plug-ins Salesforce, puis sur Déployer.

  7. Dans la fenêtre Déploiement des plug-ins Salesforce, cliquez sur Terminer.

    Une fois le déploiement terminé, une boîte de dialogue s'affiche avec un message de réussite.

  8. Dans cette boîte de dialogue, cliquez sur Créer un pipeline.

    La page Cloud Data Fusion Studio s'affiche.

  9. Sélectionnez Pipeline de données - lot comme type de pipeline de données.

  10. Dans le menu Source, cliquez sur Salesforce.

  11. Accédez au nœud Salesforce et cliquez sur Propriétés. La page des propriétés du plug-in Salesforce s'ouvre.

  12. Dans le champ Nom de la référence, saisissez le nom de la source. Exemple : Leads_generated.

  13. Dans la section Connexion, cliquez sur le bouton Utiliser la connexion.

  14. Cliquez sur Parcourir les connexions. La fenêtre Parcourir les connexions s'ouvre.

  15. Cliquez sur Ajouter une connexion, puis sélectionnez Salesforce.

  16. Dans la fenêtre Créer une connexion Salesforce, cliquez sur l'onglet Configuration et procédez comme suit :

    1. Dans le champ Nom, saisissez un nom pour identifier votre connexion (par exemple, Salesforce_connection).

    2. Dans la section Identifiants, saisissez les informations suivantes concernant votre compte Salesforce :

      • Nom d'utilisateur
      • Mot de passe
      • Clé du site consommateur
      • Clé secrète du site consommateur
      • Jeton de sécurité
    3. Cliquez sur Test connection (Tester la connexion). Si les informations saisies sont correctes, le test réussit et le message "Connexion réussie" s'affiche.

    4. Cliquez sur Créer.

    5. Sélectionnez Salesforce_connection et revenez à la page des propriétés du plug-in Salesforce.

Extraire les données du plug-in de source par lot Salesforce

  1. Sur la page des propriétés du plug-in Salesforce, dans la section Requête SOQL, saisissez la requête suivante :

    Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
    

    Cette requête extrait les informations d'un prospect potentiel requis pour exécuter une campagne à partir du sObject Lead.

  2. Pour déterminer la validité du schéma d'objet, cliquez sur Obtenir un schéma.

  3. Pour filtrer les enregistrements en fonction d'une date ou d'une heure spécifique pour diffuser la campagne, utilisez les champs suivants :

    • Dernière modification après le
    • Dernière modification avant le
    • Durée
    • Décalage (offset)
Requête SOQL pour extraire les données

Transformer des données à l'aide du plug-in Wrangler

Utilisez le plug-in Wrangler dans Cloud Data Fusion pour nettoyer et enrichir vos données :

  1. Revenez à la page Studio.

  2. Dans le menu Transformer, cliquez sur Wrangler.

  3. Connectez Wrangler au plug-in de source par lot Salesforce.

  4. Accédez au plug-in Wrangler, puis cliquez sur Propriétés. La page des propriétés du plug-in Wrangler s'ouvre.

  5. Assurez-vous que le schéma d'entrée est renseigné.

  6. Cliquez sur Wrangle.

  7. Dans le volet Connexions, sélectionnez une connexion valide.

  8. Sélectionnez le sObject que vous souhaitez transformer (par exemple, Lead).

  9. Transformez les données avec les directives requises :

    keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId,
    :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' '
    fill-null-or-empty :Email 'no email found'
    mask-number :Phone ########xxxxxxxx
    format-date :LastActivityDate yyyy-MM-dd HH:mm:ss
    drop :LastName,:FirstName
    
    Transformer les données

Charger des données dans BigQuery

  1. Revenez à la page Studio.

  2. Dans le menu Récepteur, cliquez sur BigQuery.

  3. Accédez au nœud BigQuery, puis cliquez sur Propriétés. La page des propriétés du plug-in BigQuery s'ouvre.

  4. Dans le champ Nom de la référence de la section Basique, saisissez un nom permettant d'identifier ce récepteur. Exemple : Leads_generated.

  5. Dans le champ Ensemble de données, saisissez l'ensemble de données auquel appartient la table. Exemple : Salesforce_Leads.

  6. Dans le champ Table, saisissez la table dans laquelle les enregistrements extraits doivent être stockés. Par exemple, Incoming_Open_Leads.

  7. Pour valider le plug-in, cliquez sur Valider.

Charger les données

Déployer, planifier et exécuter le pipeline

  1. Pour déployer le pipeline, cliquez sur Déployer.

  2. Pour configurer un planning d'actualisation approprié à l'aide des planificateurs, procédez comme suit :

    1. Cliquez sur Schedule (Programmer).
    2. Saisissez les informations suivantes :

      • Pipeline run repeats
      • Repeats every
      • À partir de
      • Max concurrent runs
      • Compute profiles
    3. Cliquez sur Enregistrer et démarrer la planification.

    Déployer et exécuter le pipeline

  3. Pour exécuter le pipeline, cliquez sur Exécuter.

Vérifier l'extraction et l'ingestion des données

  1. Dans la console Google Cloud, accédez à la page BigQuery.

    Accéder à BigQuery

  2. Recherchez l'ensemble de données Salesforce_Leads et le nom de la table Incoming_Open_Leads pour afficher les enregistrements extraits.

  3. Pour exécuter la requête, cliquez sur Requête.

Analysez les données sur les prospects pour mieux comprendre votre audience et diffuser des campagnes sur mesure à grande échelle.

Effectuer un nettoyage

Pour éviter que les ressources utilisées sur cette page soient facturées sur votre compte Google Cloud, procédez comme suit :

Supprimer l'instance Cloud Data Fusion

Suivez ces instructions pour supprimer votre instance Cloud Data Fusion.

Supprimer le projet

Le moyen le plus simple d'empêcher la facturation est de supprimer le projet que vous avez créé pour ce tutoriel.

Pour supprimer le projet :

  1. Dans la console Google Cloud, accédez à la page Gérer les ressources.

    Accéder à la page Gérer les ressources

  2. Dans la liste des projets, sélectionnez le projet que vous souhaitez supprimer, puis cliquez sur Supprimer.
  3. Dans la boîte de dialogue, saisissez l'ID du projet, puis cliquez sur Arrêter pour supprimer le projet.

Étapes suivantes