Architecture : entrepôt de données marketing

Last reviewed 2022-03-23 UTC

Ce document fournit une architecture de référence qui décrit comment créer des entrepôts de données marketing évolutifs. Les solutions d'entreposage de données marketing vous permettent de proposer des expériences publicitaires personnalisées, opportunes et ciblées à vos utilisateurs, tout en respectant leur confidentialité. Ce document est destiné aux ingénieurs de données, aux data scientists ou aux membres informatiques qui travaillent dans des fonctions liées au marketing et à l'analyse d'audience.

La mise en œuvre d'un entrepôt de données marketing vous aide à répondre aux besoins commerciaux suivants :

  • Insights complets : Si vous utilisez plusieurs plates-formes SaaS (Software as a Service), vous pouvez utiliser cette architecture pour consolider les données marketing et publicitaires dans BigQuery. Si vous êtes une personne concernée d'une entreprise, vous pouvez obtenir des informations en temps réel sur les performances marketing et commerciales.

  • Innovation marketing : si vous êtes un data scientist ou un ingénieur de données, vous pouvez créer des modèles de machine learning (ML) pour les besoins de votre entreprise, comme la segmentation de la clientèle, la valeur vie d'un client, des recommandations de produits et des prédictions d'achat. Vous pouvez activer ces modèles sur plusieurs plates-formes, telles que le marketing par e-mail ou le ciblage de la publicité.

  • Expérience client : l'entrepôt de données marketing offre une meilleure visibilité sur les préférences des clients, afin que vous puissiez améliorer leur expérience grâce à une personnalisation précise. L'obtention de ces informations vous permet de personnaliser les points d'interaction de vos clients, tels que les applications propriétaires, les sites Web, les publicités en ligne et le marketing par e-mail.

Architecture

Le schéma suivant illustre une architecture de référence classique pour l'analyse marketing sur Google Cloud utilisant plusieurs produits d'analyse de données et de machine learning.

Architecture de référence pour l'analyse marketing sur Google Cloud

Le schéma montre les étapes à suivre dans un workflow d'entrepôt de données marketing que vous pouvez configurer :

  1. Ingestion de données
  2. Traitement des données
  3. Machine learning
  4. Insights et activation

Composants d'architecture

Cette section décrit les étapes d'une solution d'entrepôt de données marketing, y compris les composants technologiques nécessaires.

Ingestion de données

La première étape de la création d'un entrepôt de données marketing consiste à consolider vos données de manière centralisée. Vous pouvez ingérer des données issues des sources de données suivantes :

  • Plates-formes Google et SaaS : vous pouvez ingérer des sources de données, telles que Google Analytics, Google Ads et Google Marketing Platform, dans l'entrepôt de données marketing Google Cloud de BigQuery. Pour importer des données provenant de sources telles que Salesforce, les connecteurs SaaS sont disponibles dans Google Cloud et via nos partenaires.
  • Clouds publics : vous pouvez utiliser le service de transfert de données BigQuery pour importer des données provenant d'autres clouds publics. Par exemple, pour déplacer des données d'Amazon S3 vers BigQuery, vous pouvez planifier et gérer automatiquement les tâches de chargement récurrentes. Vous pouvez également utiliser BigQuery Omni, une solution d'analyse flexible et multicloud qui vous permet d'analyser les données de Google Cloud et Amazon Web Services.
  • API, fichiers plats et données first party sur site : vous pouvez ingérer des données issues de sources telles que la gestion de la relation client (CRM) ou les systèmes de point de vente. En général, cette ingestion de données est faite hors connexion à l'aide de l' outil de ligne de commande bq , de l'API BigQuery ou de la console Google Cloud. Vous pouvez charger ces données localement ou à partir de Cloud Storage. Pour les grands ensembles de données, nous vous recommandons d'utiliser Cloud Storage pour optimiser l'utilisation de la bande passante, la vitesse du réseau et l'intégration du produit. Pour charger des données basées sur des événements dans BigQuery, vous pouvez définir des déclencheurs de fonction Cloud. Par exemple, définissez des déclencheurs basés sur la disponibilité des nouvelles données.

La plupart des approches d'ingestion précédentes utilisent des chargements par lot. Si vous souhaitez ingérer des ensembles de données en streaming dans BigQuery, vous pouvez utiliser les fonctionnalités de streaming de BigQuery. Pour les cas d'utilisation de l'analyse de flux, consultez les