Usar el complemento fuente por lotes de Salesforce para analizar los datos de clientes potenciales en BigQuery

Aprende a usar el complemento fuente por lotes de Salesforce en Cloud Data Fusion para analizar datos de clientes potenciales en BigQuery.


Para seguir la guía paso a paso en esta tarea directamente en la consola de Google Cloud, haz clic en Guiarme:

GUIARME


Situación

Imagina que un gerente de marketing planifica una campaña de marketing por correo electrónico con una segmentación muy precisa para promocionar un producto nuevo. Tienes una lista de clientes potenciales en Sales Cloud de Salesforce. Antes de crear una campaña segmentada, para comprender tu un mejor público objetivo, te recomendamos usar el complemento de fuente por lotes de Salesforce en Cloud Data Fusion para extraer datos específicos de clientes potenciales.

Antes de comenzar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc APIs.

    Enable the APIs

  7. Crea una instancia de Cloud Data Fusion.
  8. Crea un bucket de Salesforce para configurar una conexión a la API de Salesforce. app conectada para Cloud Data Fusion.

Administrar permisos

Crea y asigna los roles y permisos personalizados necesarios.

Crea un rol personalizado y agrega permisos

  1. En la consola de Google Cloud, ve a la página Roles.

    Ir a Funciones

  2. Haz clic en Crear rol.

  3. En el campo Title, ingresa Custom Role-Tutorial.

  4. Haz clic en Agregar permisos.

  5. En la ventana Agregar permisos, selecciona los siguientes permisos y haz clic en Agregar:

    • bigquery.datasets.create
    • bigquery.jobs.create
    • storage.buckets.create
  6. Haz clic en Crear.

Asigna un rol personalizado a la cuenta de servicio predeterminada de Compute Engine

  1. Ve a la página de Instancias de Cloud Data Fusion.

    Ir a instancias

  2. Haz clic en el nombre de la instancia.

  3. Toma nota de la cuenta de servicio predeterminada de Compute Engine. La página de detalles de la instancia contiene esta información.

    El formato del nombre de la cuenta de servicio predeterminada de Compute Engine de Cloud Data Fusion es CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Ve a la página IAM:

    Ir a IAM

  5. En la barra de Filtro, ingresa el nombre de tu cuenta de servicio predeterminada de Compute Engine.

  6. Para la cuenta de servicio predeterminada de Compute Engine, haz clic en Editar.

  7. Haz clic en Agregar otro rol.

  8. En el campo Selecciona un rol, selecciona Rol personalizado - instructivo.

  9. Haz clic en Guardar.

Configura el complemento de origen por lotes de Salesforce para Cloud Data Fusion

  1. Ve a la página de Instancias de Cloud Data Fusion.

    Ir a Instancias

  2. Para tu instancia, haz clic en Ver instancia. Se abrirá la interfaz web de Cloud Data Fusion.

  3. Ve a la página de Studio.

  4. Haz clic en Hub.

  5. En la barra de búsqueda, ingresa Salesforce.

  6. Haz clic en Salesforce plugins y, luego, en Deploy.

  7. En la ventana Salesforce plugins deploy haz clic en Finish.

    Cuando se completa la implementación, se muestra un diálogo con un mensaje de éxito.

  8. En ese diálogo, haz clic en Create a pipeline.

    Se mostrará la página Cloud Data Fusion Studio.

  9. Selecciona Data Pipelines - batch como el tipo de canalización de datos.

  10. En el menú Source, haz clic en Salesforce.

  11. Ve al nodo de Salesforce y haz clic en Properties. Se abrirá la página de propiedades del complemento de Salesforce.

  12. En el campo Reference name, ingresa un nombre para tu fuente. Por ejemplo, Leads_generated.

  13. En la sección Connection, haz clic en el botón de activación Use connection.

  14. Haz clic en Browse connections. Se abrirá la ventana Browse connections.

  15. Haz clic en Add connection y selecciona Salesforce.

  16. En la ventana Create a Salesforce connection, haz clic en la pestaña Configuration y haz lo siguiente:

    1. En el campo Name, ingresa un nombre para identificar la conexión, por ejemplo, Salesforce_connection.

    2. En la sección Credentials, ingresa los siguientes detalles de tu cuenta de Salesforce:

      • Nombre de usuario
      • Contraseña
      • Clave de consumidor
      • Secreto de consumidor
      • Token de seguridad
    3. Haz clic en Test Connection. Si los detalles ingresados son correctos, la prueba se realizará de manera correcta con el mensaje "Successfully connected".

    4. Haz clic en Crear.

    5. Selecciona Salesforce_connection y regresa a la página de propiedades del complemento de Salesforce.

Extrae datos del complemento de origen por lotes de Salesforce

  1. En la página de propiedades del complemento de Salesforce, en la sección SOQL query, ingresa la siguiente consulta:

    Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
    

    Esta consulta recupera los detalles de un cliente potencial potencial que se necesita para publicar una campaña a partir del sObject Lead.

  2. Para determinar la validez del esquema de objetos, haz clic en Get shcema.

  3. Si deseas filtrar los registros por una fecha o una hora específica para publicar la campaña, usa los siguientes campos:

    • Última modificación después del
    • Última modificación antes del
    • Duración
    • Desplazamiento
Consulta de SOQL para extraer datos

Transforma datos con el complemento Wrangler

Usa el complemento Wrangler en Cloud Data Fusion para limpiar y enriquecer tus datos:

  1. Regresa a la página de Studio.

  2. En el menú Transform, haz clic en Wrangler.

  3. Conecta Wrangler al complemento de origen por lotes de Salesforce.

  4. Ve al complemento Wrangler y haz clic en Properties. Se abrirá la página de propiedades del complemento Wrangler.

  5. Asegúrate de que se propague el Esquema de entrada.

  6. Haz clic en Wrangle.

  7. En el panel Connections, selecciona una conexión válida.

  8. Selecciona el sObject que deseas transformar, por ejemplo, Lead.

  9. Transforma los datos con las directivas requeridas:

    keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId,
    :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' '
    fill-null-or-empty :Email 'no email found'
    mask-number :Phone ########xxxxxxxx
    format-date :LastActivityDate yyyy-MM-dd HH:mm:ss
    drop :LastName,:FirstName
    
    Transforma los datos

Cargar datos en BigQuery

  1. Regresa a la página de Studio.

  2. En el menú Sink, haz clic en BigQuery.

  3. Ve al nodo de BigQuery y haz clic en Properties. Se abrirá la página de propiedades del complemento de BigQuery.

  4. En la sección Basic, en el campo Reference name, ingresa un nombre para identificar este receptor. Un ejemplo es Leads_generated.

  5. En el campo Dataset, ingresa el conjunto de datos al que pertenece la tabla. Por ejemplo, Salesforce_Leads.

  6. En el campo Table, ingresa la tabla en la que se deben almacenar los registros extraídos. Un ejemplo es Incoming_Open_Leads.

  7. Para validar el complemento, haz clic en Validate.

Cargar datos

Implementa, programa y ejecuta la canalización

  1. Para implementar la canalización, haz clic en Deploy.

  2. Para establecer un programa de actualización adecuado mediante programadores, sigue estos pasos:

    1. Haz clic en Schedule.
    2. Ingresa los siguientes detalles:

      • Pipeline run repeats
      • Se repite cada
      • A partir de
      • Max concurrent runs
      • Compute profiles
    3. Haz clic en Save and start schedule.

    Implementa y ejecuta la canalización

  3. Para ejecutar la canalización, haz clic en Run.

Verifica la extracción y transferencia de datos

  1. En la consola de Google Cloud, ve a la página de BigQuery:

    Ir a BigQuery

  2. Busca el conjunto de datos Salesforce_Leads y el nombre de la tabla Incoming_Open_Leads para ver los registros extraídos.

  3. Para ejecutar la consulta, haz clic en Consulta.

Analiza los datos de clientes potenciales para comprender mejor a tu público y publicar campañas personalizadas a gran escala.

Limpia

Sigue estos pasos para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos que usaste en esta página.

Borra la instancia de Cloud Data Fusion

Sigue estas instrucciones para borrar tu instancia de Cloud Data Fusion.

Borra el proyecto

La manera más fácil de eliminar la facturación es borrar el proyecto que creaste para el instructivo.

Para borrar el proyecto, sigue estos pasos:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

¿Qué sigue?