Construye un almacén de datos de marketing

En este artículo, se analiza cómo puedes recopilar datos desde varias fuentes para crear listas de remarketing que antes no estaban disponibles. Si usas estas listas, puedes obtener una visión integral de tus clientes. Cuando comprendes cómo tus clientes interactúan con tu marca, puedes manejar el valor del ciclo de vida del cliente (LTV) y habilitar estadísticas de marketing más relevantes.

La función del especialista en marketing es evolucionar desde la ejecución de las campañas tradicionales a una participación de importante en tiempo real. Mientras que la captura de datos y el análisis de rendimiento retroactivo regían el paradigma antiguo, el especialista en marketing de hoy usa estadísticas del cliente respaldadas por datos, estrategia basada en el rendimiento y una orientación proactiva y analizada.

Este enfoque moderno trae un conjunto nuevo de desafíos. Por ejemplo, el almacenamiento cada vez más económico contribuye a la explosión exponencial de datos, pero la recolección de estos en un solo lugar para su análisis, aún sigue siendo un desafío. Algunos de los factores problemáticos son los siguientes:

  • Varios orígenes y formatos de datos que, en general, están aislados
  • Demasiadas herramientas de estadísticas, extracción, transformación y carga (ETL) que pueden ser difíciles de implementar
  • Recursos técnicos escasos
  • Falta de flexibilidad para probar y generar prototipos

En este artículo, se abordan estos factores y se brinda ayuda para comprender cómo crear un flujo de trabajo que se puede usar con tus propios datos. También se da por sentado cierto conocimiento básico sobre el lenguaje de consulta estructurado (SQL). Para algunas partes relacionadas con el aprendizaje automático, tal vez necesites la ayuda de un analista de datos o de científico de datos.

Caso práctico

La empresa ficticia en este ejemplo es un minorista de cosméticos de venta en línea y tú eres el director principal de marketing. Quieres obtener estadísticas clave mientras minimizas el grado de participación técnica con los equipos DevOps. Tienes recursos de TI limitados, pero sí cuentas con la ayuda de un científico de datos.

Tu desafío principal es optimizar el presupuesto de marketing mediante el seguimiento del retorno de la inversión (ROI) de lo que se gasta en anuncios, pero enfrentas los siguientes desafíos de datos.

  • Los datos están dispersos en los productos Google Analytics 360, Campaign Manager y administración de relaciones con clientes (CRM), entre otras fuentes.
  • Los datos de clientes y de ventas están almacenados en un sistema de CRM.
  • Algunos datos no están en un formato consultable.
  • No existe una herramienta común para analizar datos y compartir resultados con el resto de la organización.

El enfoque en este artículo aborda esas dificultades y describe las siguientes soluciones.

  • Recopilar los datos en una ubicación de almacenamiento en común
  • Transformarlos para que se puedan consultar y unirse entre las distintas fuentes
  • Acceder a informes de dimensiones que no están disponibles en las API de informes estándar
  • Aprovechar los trabajos de aprendizaje automático para descubrir grupos de usuarios

Si realizas estas tareas, puedes crear listas de remarketing que antes no estaban disponibles.

Arquitectura

En el siguiente diagrama de arquitectura, se muestra el proceso de transferencia de datos desde varias fuentes para tomar decisiones de remarketing.

De la transferencia de datos a las decisiones de remarketing
Figura 1: Movimientos desde la transferencia de datos hasta la toma de decisiones de remarketing.
  • En este diagrama, algunos conjuntos de datos están en un color más claro para indicar que no forman parte de los casos prácticos específicos que se describen en este artículo, a pesar de que se los podría abordar de la misma manera. Por ejemplo, en este artículo, te mostramos cómo ejecutar consultas de Google Ad Manager o YouTube en datos de Campaign Manager, pero podrías hacer los mismo con datos exportados a BigQuery.
  • En este diagrama, se incluye una sección etiquetada como Más avanzada. Una vez que tengas datos consolidados en una ubicación central, un científico de datos te puede ayudar a usarlos para realizar trabajo más avanzado, como aprendizaje automático.

Requisitos funcionales

En esta sección, se explican las opciones de tecnología según los siguientes requisitos funcionales.

  • Recopilación y almacenamiento de datos
  • Transformación de datos
  • Análisis de datos
  • Visualización de datos
  • Activación de datos

Recopila y almacena datos

El primer paso para conseguir estadísticas es consolidar tus datos en una ubicación central. Elige la tecnología que te ayude a recopilar información de forma eficiente desde tus canales de marketing más importantes y fuentes de datos; comienza por los datos de Google.

BigQuery ofrece capacidades de almacenamiento y un motor de consulta y puede transferir datos desde varias fuentes. En este artículo, debes juntar datos relacionados con lo siguiente:

El proceso de recopilación de datos
Figura 2: Recopilación y consolidación de datos.

Transformación

En esta sección, se cubre la preparación de datos para su análisis, lo que incluye la limpieza y modificación del formato a fin de proporcionar coherencia en conjunto de datos grandes. Querrás que tu análisis sea capaz de limpiar los datos con poco o ningún código, por ejemplo, a través de una herramienta visual que pueda escalar y ejecutar transformaciones distribuidas.

Puedes usar BigQuery para realizar transformación por lotes desde una tabla a otra o mediante una Vista. Sin embargo, para transformaciones más avanzadas, tal vez prefieras una herramienta visual que pueda ejecutar terabytes de datos a través de una canalización de procesamiento compleja con requisitos de programación mínimos.

Supongamos que tienes una string de clave-valor como la del campo Other_data exportado a la tabla de actividad de Campaign Manager:

key1=value1&key2=value2&...keyN=valueN

Quieres dividir esta string en una tabla de columnas y valores similar a esta:

key1 | key2 | … | keyN
----------------------
val1 | val2 | … | valN

Hacer que los nombres de la clave aparezcan como columnas facilita la unión con otras tablas existentes. Las claves pueden contener información personalizada, como tu ID de usuario de CRM, la lista de productos o datos de Urchin Tracking Module (UTM).

Cloud Dataprep by Trifacta ofrece una función llamada recetas que puedes usar para definir las transformaciones. Una receta es una secuencia de tareas que se ejecuta en segundo plano en un entorno distribuido.

Receta de Cloud Dataprep

Cuando defines una receta, Cloud Dataprep by Trifacta brinda una vista previa de cómo se verán los datos. En la captura de pantalla a continuación, observa que cuando se almacenan los datos transformados, contienen columnas nuevas como tratamientos, productos, inquietudes y membresía.

almacenar datos transformados

Cloud Dataprep by Trifacta también admite varias fuentes de entrada y salida, incluida BigQuery, por lo que es una buena opción para esta solución. Cloud Dataprep by Trifacta puede leer desde el conjunto de datos de BigQuery importados desde Campaign Manager y guardar los resultados de nuevo en BigQuery.

Analiza

Luego de guardar tus datos limpios de manera centralizada, puedes comenzar a analizarla para las estadísticas. Hay muchas ventajas de tener los datos disponibles en BigQuery, por ejemplo:

  • Puedes ejecutar consultas sobre datos más grandes que, por ejemplo, los que pueden manejar Google Ad Manager, la API de informes o la IU.
  • Tienes acceso a datos más detallados que no siempre están disponibles en la IU ni en las API de informes.
  • Puedes procesar y unir datos de varias fuentes con una clave común.

En el resto de esta sección, se describe lo que puedes hacer con los datos disponibles. Esta sección se divide en las dos partes siguientes:

  • Análisis estándar, que requiere algunos conocimientos básicos del lenguaje de consulta estructurado (SQL), se enfoca principalmente en dos tipos de estadísticas:

    • Estadísticas descriptivas, para ver lo que sucede en tu negocio.
    • Estadísticas de diagnóstico, para comprender por qué sucede.
  • Estadísticas basadas en el aprendizaje automático, que pueden necesitar de un analista de datos o científico, desbloquea las estadísticas nuevas como las que aparecen debajo:

    • Estadísticas predictivas, para predecir resultados mediante datos históricos.
    • Estadísticas prescriptivas, para anticipar resultados y preparar tu estrategia.

Análisis estándar

Los productos relacionados con los anuncios pueden crear gigabytes o incluso terabytes de datos de registro diarios, cuyo análisis puede ser un desafío. Las herramientas de informes listas para usar a veces limitan las dimensiones que se pueden consultar, no siempre ofrecen las combinaciones correctas o no pueden consultar todos los datos sin procesar disponibles y, en cambio, ofrecen agregados.

Las estadísticas descriptivas y de diagnóstico, por lo general, requieren exploración, es decir, ejecutar consultas en los macrodatos. Una herramienta así llama a una arquitectura escalable. Pero puede ser un desafío construirla con una sobrecarga de infraestructura mínima y a un precio razonable, en especial con recursos técnicos limitados. Una solución es usar BigQuery. BigQuery es un motor de consulta y almacenamiento que puede ejecutar consultas a través de terabytes de datos en segundos en lugar de minutos o incluso horas, sin ninguna configuración del servidor.

La forma más sencilla de ejecutar consultas en BigQuery es usar la IU interactiva, pero en esta Página de sobre consultas de datos, se describen otras opciones posibles.

Análisis y enriquecimiento avanzados

Si eres un poco más técnico o cuentas con un analista o científico de datos en tu equipo, intenta ejecutar algoritmos predictivos para obtener conocimientos adicionales que luego puedan volver a transferirse a tus conjuntos de datos. Algunas tareas típicas consisten de:

  • Agrupar a los clientes en audiencias parecidas mediante aprendizaje automático no supervisado.
  • Predecir los números de ventas o LTV de los clientes con el uso de la regresión.
  • Ejecutar análisis de opiniones del producto, mediante comentarios, por ejemplo.

Si bien los algoritmos son importantes para el aprendizaje automático, la clave a fin de realizar una predicción buena, es la cantidad y calidad de los datos en los que puedes entrenar a tu modelo. Después de la transferencia de datos por parte de BigQuery, necesitarás alguna de las siguientes opciones:

  • Una herramienta interactiva que pueda vincular varios componentes de GCP para simplificar las tareas de ciencia de datos.
  • Una plataforma de aprendizaje automático que pueda ejecutar el entrenamiento y la predicción a gran escala con DevOps mínimos.

Cloud Machine Learning Engine puede ejecutar modelos de TensorFlow de forma administrada y escalable tanto para entrenamiento y predicción, mientras agrega características como el ajuste de hiperparámetros. TensorFlow es una biblioteca numérica líder de software de código abierto (OSS) que Google lanzó en su comienzo.

Cloud Datalab ofrece notebooks de Jupyter como un servicio con características agregadas para conectar a los productos de GCP como BigQuery, Cloud Storage, Cloud Machine Learning Engine o a las API de Perception como las de Cloud Natural Language. Los científicos de datos pueden usar Cloud Datalab para ejecutar sesiones analíticas interactivas y conectar los puntos entre todos esos productos. Cloud Datalab incluye otras bibliotecas estándar como NumPy o Pandas.

Desde Cloud Datalab puedes, por ejemplo, usar las predicciones de Natural Language para realizar ciertos análisis de opiniones. En el histograma, se muestra que una mayoría de los clientes tiene una opinión positiva sobre los productos, la marca o sobre ambos.

x = pd.Series(df.avg_sentiment, name="sentiment")
fig, ax = plt.subplots()
ax.set_title("Avg. Sentiment For All Products")
ax = sns.distplot(x, ax=ax)

análisis de opiniones

Visualización

Puede resultar incómodo escribir consultas de SQL en la IU de BigQuery o código de Python en un notebook. Ten en cuenta estos ejemplos:

  • Un administrador necesita acceso rápido a los paneles accionables.
  • Un analista con conocimientos técnicos limitados necesita segmentar y desglosar datos.

Con Google Data Studio, puedes crear con rapidez paneles de negocio que se puedan compartir, ya sea desde cero o con plantillas configuradas previamente. Este enfoque tiene varias ventajas:

  • Brinda acceso a los datos a través de la funcionalidad de arrastrar y soltar.
  • Facilita la colaboración para crear paneles relevantes.
  • Te permite compartir paneles integrados con los responsables de toma de decisiones.

En el siguiente ejemplo, se muestran datos de varias fuentes.

  • En la fila del medio, del lado izquierdo, puedes ver el informe de Google Analytics 360. Del lado derecho, el Campaign Manager.
  • En la fila de arriba, en las columnas del medio, el gráfico de puntos azules muestra trazada la interacción con los clientes en comparación con el LTV.

Visualización de datos de varias fuentes

Activación

Con los datos sin procesar en una ubicación común, accesibles a través del código y los paneles, y en una plataforma que puede manipular los datos, muchas decisiones de marketing se vuelven posibles, por ejemplo:

  • Estadísticas descriptivas sobre cómo la frecuencia afecta la conversión por usuario por campaña. Tener esta información ayuda cuando creas campañas de remarketing para adaptar la frecuencia en una lista específica de usuarios. El acceso de BigQuery a los datos sin procesar de Campaign Manager hace posible esta información.

  • Estadísticas de diagnóstico para entender el impacto del comportamiento de una campaña y sitio web sobre tus ventas. A fin de activar estas estadísticas, usa las instrucciones de SQL para crear uniones de los ID y macrodatos.

  • Estadísticas predictivas sobre LTV para usuarios específicos. Si predices el valor de grupos de usuarios específicos, podrás ejecutar campañas de marketing para aumentar ventas. Un ejemplo sería el grafo de puntos azules del diagrama anterior. En este, puede que descubras que un grupo de usuarios con una participación limitada con la marca tiene un alto potencial de compra si los usuarios participaran más. Esta estadística la obtienes a través de la unión de datos y mediante el aprendizaje automático para construir segmentos de clientes y predecir un volumen de LTV.

  • Estadísticas prescriptivas sobre opiniones de producción Mediante el análisis de la evolución de los comentarios de texto y las calificaciones, puedes ayudar a prevenir una orientación incorrecta con la predicción sobre cómo un cierto grupo de usuarios recibirá un producto que tiene ciertas características. Puedes realizar esta tarea con un análisis de opiniones y con una segmentación de clientes, por ejemplo.

Pasos siguientes

¿Te sirvió esta página? Envíanos tu opinión:

Enviar comentarios sobre…