Le Centre d'architecture fournit des ressources de contenu sur une grande variété de sujets liés au big data et aux analyses.
Ressources sur le big data et les analyses dans le Centre d'architecture
Vous pouvez filtrer la liste suivante de ressources sur le big data et les analyses en saisissant un nom de produit ou une expression figurant dans le titre ou la description de la ressource.
Analyser des données FHIR dans BigQuery Décrit les processus et considérations à prendre en compte concernant l'analyse des données FHIR (Fast Healthcare Interoperability Resources) dans BigQuery. Produit utilisé : BigQuery |
Architecture et fonctions d'un maillage de données Conseils pour la mise en œuvre d'un maillage de données dans Google Cloud… |
Architecture : entrepôt de données marketing Fournit une architecture de référence qui décrit comment créer des entrepôts de données marketing évolutifs. Produits utilisés : AI Platform, AutoML, BigQuery, Cloud Data Fusion, Dataflow, Dataprepby Trifacta, Google Analytics, Looker |
Explique comment utiliser Data Catalog avec un pipeline Dataflow automatisé pour identifier et appliquer des tags de sensibilité des données à vos données dans des fichiers Cloud Storage, des bases de données relationnelles et BigQuery. Produits utilisés : Cloud Build, Cloud Data Loss Prevention, Cloud SQL, Cloud Storage, Compute Engine, Data Catalog, Dataflow, Secret Manager |
Explique comment répliquer et traiter des données opérationnelles d'une base de données Oracle dans Google Cloud en temps réel. Vous apprendrez également à prévoir la demande future et à visualiser ces données au fur et à mesure qu'elles arrivent. Produits utilisés : BigQuery, Dataflow, Looker |
Créer une solution d'analyse ML Vision avec Dataflow et l'API Cloud Vision Découvrez comment déployer un pipeline Dataflow pour traiter des fichiers image à grande échelle avec Cloud Vision. Dataflow stocke les résultats dans BigQuery afin que vous puissiez vous en servir pour entraîner des modèles prédéfinis BigQuery ML. Produits utilisés : BigQuery, Cloud Build, Cloud Pub/Sub, Cloud Storage, Cloud Vision, Dataflow |
Exporter des métriques Cloud Monitoring Décrit comment exporter des métriques Cloud Monitoring pour les analyser à long terme. Produits utilisés : App Engine, BigQuery, Cloud Monitoring, Cloud Pub/Sub, Cloud Scheduler, Datalab, Looker Studio |
Réplication continue des données vers BigQuery avec Striim Décrit comment migrer une base de données MySQL vers BigQuery à l'aide de Striim. Striim est une plate-forme complète d'extraction, de transformation et de chargement (ETL). Produits utilisés : BigQuery, Cloud SQL pour MySQL, Compute Engine |
Réplication continue des données vers Spanner à l'aide de Striim Découvrez comment effectuer la migration d'une base de données MySQL vers Cloud Spanner à l'aide de Striim. Produits utilisés : Cloud SQL, Cloud SQL pour MySQL, Compute Engine, Spanner |
Modèles de conception d'analyse de données Contient des liens vers des cas d'utilisation métier, des exemples de code et des guides de référence techniques pour les cas d'utilisation de l'analyse de données dans différents secteurs. Utilisez ces ressources pour apprendre et identifier les bonnes pratiques qui vous permettront d'accélérer la mise en œuvre de vos charges de travail. |
Data science avec R sur Google Cloud : analyse exploratoire des données Décrit comment utiliser la data science à grande échelle avec R sur Google Cloud. Ce document est destiné aux personnes qui maîtrisent le langage R et les notebooks Jupyter, et qui sont familiarisés avec SQL. Produits utilisés : BigQuery, Cloud Storage, Notebooks |
Transformation des données entre MongoDB Atlas et Google Cloud Transformation de données entre MongoDB Atlas en tant que datastore opérationnel et BigQuery en tant qu'entrepôt de données d'analyse. Produits utilisés: BigQuery, Cloud Pub/Sub, Dataflow |
Explique comment utiliser la protection des données sensibles pour créer un pipeline de transformation de données automatisé afin d'anonymiser des données sensibles telles que les informations permettant d'identifier personnellement l'utilisateur. Produits utilisés : BigQuery, Cloud Data Loss Prevention, Cloud Pub/Sub, Cloud Storage, Dataflow, Identity and Access Management |
Décrit l'utilisation de la protection des données sensibles pour limiter le risque d'exposition des données sensibles stockées dans les bases de données Google Cloud aux utilisateurs, tout en leur permettant d'interroger des données pertinentes. Produits utilisés : Cloud Audit Logs, Cloud Data Loss Prevention, Cloud Key Management Service |
Architecture de référence du traitement des données génomiques Décrit les architectures de référence permettant d'utiliser l'API Cloud Life Sciences avec d'autres produits Google Cloud pour effectuer le traitement des données génomiques à l'aide de différents moteurs et méthodes de workflow. Produits utilisés : Cloud Life Sciences, Cloud Storage, Compute Engine |
Architecture de l'analyse géospatiale Découvrez les capacités géospatiales de Google Cloud et comment les utiliser dans vos applications d'analyse géospatiale. Produits utilisés : BigQuery, Dataflow |
Importer des données depuis un réseau externe dans un entrepôt de données BigQuery sécurisé Décrit une architecture que vous pouvez utiliser pour sécuriser un entrepôt de données dans un environnement de production et fournit les bonnes pratiques pour l'importation des données dans BigQuery à partir d'un réseau externe, tel qu'un environnement sur site. Produits utilisés : BigQuery |
Importer des données depuis Google Cloud dans un entrepôt de données BigQuery sécurisé Décrit une architecture que vous pouvez utiliser pour sécuriser un entrepôt de données dans un environnement de production, et fournit les bonnes pratiques pour la gouvernance des données d'un entrepôt de données dans Google Cloud. Produits utilisés : BigQuery, Cloud Data Loss Prevention, Cloud Key Management Service, Dataflow |
Ingérer des données cliniques et opérationnelles avec Cloud Data Fusion Explique aux chercheurs, aux data scientists et aux équipes informatiques comment Cloud Data Fusion permet de déverrouiller des données en les ingérant, en les modifiant et en les stockant dans BigQuery, un entrepôt de données agrégées sur Google Cloud. Produits utilisés : BigQuery, Cloud Data Fusion, Cloud Storage |
Solution de démarrage rapide : lakehouse d'analyse de données Unifiez les lacs et les entrepôts de données en créant un lakehouse d'analyse de données à l'aide de BigQuery pour stocker, traiter, analyser et activer les données. |
Solution de démarrage rapide : entrepôt de données avec BigQuery Créer un entrepôt de données avec un tableau de bord et un outil de visualisation à l'aide de BigQuery. |
Solution de démarrage rapide : application Web Go pour le partage de grands volumes de données Déployez une application Go sur Cloud Run pour diffuser un grand nombre de fichiers à l'aide d'un réseau de diffusion de contenu et d'un stockage d'objets. |
Solution de démarrage rapide : application Web Java pour le partage de grands volumes de données Déployez une application Java sur Cloud Run pour diffuser un grand nombre de fichiers à l'aide d'un réseau de diffusion de contenu et d'un stockage d'objets. |
Vous aide à planifier, concevoir et mettre en œuvre le processus de migration de vos charges de travail d'applications et d'infrastructure vers Google Cloud, y compris les charges de travail de calcul, de base de données et de stockage. Produits utilisés : App Engine, Cloud Build, Cloud Data Fusion, Cloud Deployment Manager, Cloud Functions, Cloud Run, Cloud Storage, Container Registry, Data Catalog, Dataflow, appairage direct, Google Kubernetes Engine (GKE), Transfer Appliance |
Migrer l'infrastructure Hadoop sur site vers Google Cloud Conseils sur le transfert de charges de travail Hadoop sur site vers Google Cloud Produits utilisés : BigQuery, Cloud Storage, Dataproc |
Optimiser l'ingestion à grande échelle d'événements et de journaux d'analyse Décrit une architecture permettant d'optimiser l'ingestion de données analytiques à grande échelle sur Google Cloud, où "grande échelle" signifie plus de 100 000 événements par seconde ou dont la taille totale de la charge utile d'événement est supérieure à 100 Mo par seconde. Produits utilisés : BigQuery, Cloud Logging, Cloud Pub/Sub, Compute Engine, Dataflow |
Explique comment utiliser Dataflow pour extraire, transformer et charger des données (ETL) à partir d'une base de données relationnelle de traitement des transactions en ligne (OLTP) vers BigQuery à des fins d'analyse. Produits utilisés : BigQuery, Cloud Storage, Compute Engine, Dataflow |
Modélisation de tendances pour les applications de jeux Apprenez à utiliser BigQuery ML pour entraîner, évaluer et obtenir des prédictions à partir de différents types de modèles de tendances. Les modèles de tendances peuvent vous aider à déterminer la probabilité que des utilisateurs spécifiques retournent sur votre application. Vous pouvez ainsi utiliser… |
Analyse des journaux de sécurité dans Google Cloud Découvrez comment collecter, exporter et analyser des journaux dans Google Cloud pour vous aider à auditer l'utilisation et à détecter les menaces sur vos données et charges de travail. Utilisez les requêtes de détection des menaces incluses pour BigQuery ou Chronicle, ou utilisez votre propre solution SIEM. Produits utilisés : BigQuery, Cloud Logging, Compute Engine, Looker Studio |
Créez une API capable de prédire la probabilité qu'un client effectue un achat. Produits utilisés : Apigee, App Sheet, BigQuery ML, Spanner |
Suivre les métadonnées de provenance et de traçabilité des données médicales Explique comment suivre les métadonnées de provenance et de traçabilité des données médicales dans Google Cloud pour les chercheurs, les data scientists et les équipes informatiques. Produits utilisés : BigQuery, Cloud Data Fusion, Cloud Storage |
Transformer et harmoniser les données de santé pour BigQuery Décrit les processus et les points à prendre en compte pour harmoniser les données de santé sur Google Cloud. Il est destiné aux chercheurs, aux data scientists et aux équipes informatiques qui souhaitent créer un lac de données analytiques dans BigQuery. Produits utilisés : BigQuery, Cloud Data Fusion, Cloud Data Loss Prevention, Cloud Storage |
Utiliser un pipeline CI/CD pour les workflows de traitement des données Explique comment configurer un pipeline d'intégration/de déploiement continu (CI/CD) pour le traitement des données en appliquant des méthodes CI/CD à l'aide de produits gérés sur Google Cloud. Produits utilisés : Cloud Build, Cloud Composer, Cloud Source Repositories, Cloud Storage, Compute Engine, Dataflow |
Utiliser Apache Hive sur Dataproc Ce tutoriel vous explique comment utiliser Apache Hive sur Dataproc de manière efficace et flexible en stockant des données Hive dans Cloud Storage et en hébergeant le métastore Hive dans une base de données MySQL sur Cloud SQL. Produits utilisés : Cloud SQL, Cloud Storage, Dataproc |