Le Centre d'architecture fournit des ressources de contenu sur une grande variété de sujets liés au big data et aux analyses.
Ressources sur le big data et les analyses dans le Centre d'architecture
Vous pouvez filtrer la liste suivante de ressources sur le big data et les analyses en saisissant un nom de produit ou une expression figurant dans le titre ou la description de la ressource.
Analyser des données FHIR dans BigQuery Décrit les processus et considérations à prendre en compte concernant l'analyse des données FHIR (Fast Healthcare Interoperability Resources) dans BigQuery. Produit utilisé : BigQuery |
Architecture et fonctions d'un maillage de données Série expliquant comment implémenter un maillage de données interne à une organisation. |
Créer une solution d'analyse ML Vision avec Dataflow et l'API Cloud Vision Découvrez comment déployer un pipeline Dataflow pour traiter des fichiers image à grande échelle avec Cloud Vision. Dataflow stocke les résultats dans BigQuery afin que vous puissiez vous en servir pour entraîner des modèles prédéfinis BigQuery ML. Produits utilisés : BigQuery, Cloud Build, Cloud Pub/Sub, Cloud Storage, Cloud Vision, Dataflow |
Exporter des métriques Cloud Monitoring Décrit comment exporter des métriques Cloud Monitoring pour les analyser à long terme. Produits utilisés : App Engine, BigQuery, Cloud Monitoring, Cloud Pub/Sub, Cloud Scheduler, Datalab, Looker Studio |
Réplication continue des données vers BigQuery avec Striim Décrit comment migrer une base de données MySQL vers BigQuery à l'aide de Striim. Striim est une plate-forme complète d'extraction, de transformation et de chargement (ETL). Produits utilisés : BigQuery, Cloud SQL pour MySQL, Compute Engine |
Réplication continue des données vers Spanner à l'aide de Striim Découvrez comment effectuer la migration d'une base de données MySQL vers Cloud Spanner à l'aide de Striim. Produits utilisés : Cloud SQL, Cloud SQL pour MySQL, Compute Engine, Spanner |
Data science avec R sur Google Cloud : analyse exploratoire des données Décrit comment utiliser la data science à grande échelle avec R sur Google Cloud. Ce document est destiné aux personnes qui maîtrisent le langage R et les notebooks Jupyter, et qui sont familiarisés avec SQL. Produits utilisés: BigQuery, Cloud Storage, Notebooks, Vertex AI |
Transformation des données entre MongoDB Atlas et Google Cloud Transformation de données entre MongoDB Atlas en tant que datastore opérationnel et BigQuery en tant qu'entrepôt de données d'analyse. Produits utilisés: BigQuery, Cloud Pub/Sub, Dataflow |
Explique comment utiliser la protection des données sensibles pour créer un pipeline de transformation de données automatisé afin d'anonymiser des données sensibles telles que les informations permettant d'identifier personnellement l'utilisateur. Produits utilisés: BigQuery, Cloud Pub/Sub, Cloud Storage, Dataflow, Identity and Access Management, Sensitive Data Protection |
Architecture de l'analyse géospatiale Découvrez les capacités géospatiales de Google Cloud et comment les utiliser dans vos applications d'analyse géospatiale. Produits utilisés : BigQuery, Dataflow |
Importer des données depuis un réseau externe dans un entrepôt de données BigQuery sécurisé Décrit une architecture que vous pouvez utiliser pour sécuriser un entrepôt de données dans un environnement de production et fournit les bonnes pratiques pour l'importation des données dans BigQuery à partir d'un réseau externe, tel qu'un environnement sur site. Produits utilisés : BigQuery |
Importer des données depuis Google Cloud dans un entrepôt de données BigQuery sécurisé Décrit une architecture que vous pouvez utiliser pour sécuriser un entrepôt de données dans un environnement de production, et fournit les bonnes pratiques pour la gouvernance des données d'un entrepôt de données dans Google Cloud. Produits utilisés: BigQuery, Cloud Key Management Service, Dataflow, Sensitive Data Protection |
Solution de démarrage rapide : lakehouse d'analyse de données Unifiez les lacs et les entrepôts de données en créant un lakehouse d'analyse de données à l'aide de BigQuery pour stocker, traiter, analyser et activer les données. |
Solution de démarrage rapide : entrepôt de données avec BigQuery Créer un entrepôt de données avec un tableau de bord et un outil de visualisation à l'aide de BigQuery |
Vous aide à planifier, concevoir et mettre en œuvre le processus de migration de vos charges de travail d'applications et d'infrastructure vers Google Cloud, y compris les charges de travail de calcul, de base de données et de stockage. Produits utilisés : App Engine, Cloud Build, Cloud Data Fusion, Cloud Deployment Manager, Cloud Functions, Cloud Run, Cloud Storage, Container Registry, Data Catalog, Dataflow, appairage direct, Google Kubernetes Engine (GKE), Transfer Appliance |
Migrer l'infrastructure Hadoop sur site vers Google Cloud Conseils sur le transfert de charges de travail Hadoop sur site vers Google Cloud Produits utilisés : BigQuery, Cloud Storage, Dataproc |
Automatisation évolutive des sauvegardes BigQuery Créez une solution permettant d'automatiser les opérations de sauvegarde BigQuery récurrentes à grande échelle, avec deux méthodes de sauvegarde: les instantanés BigQuery et les exportations vers Cloud Storage. Produits utilisés: BigQuery, Cloud Logging, Cloud Pub/Sub, Cloud Run, Cloud Scheduler, Cloud Storage |
Analyse des journaux de sécurité dans Google Cloud Découvrez comment collecter, exporter et analyser des journaux dans Google Cloud pour vous aider à auditer l'utilisation et à détecter les menaces sur vos données et charges de travail. Utilisez les requêtes de détection des menaces incluses pour BigQuery ou Chronicle, ou utilisez votre propre solution SIEM. Produits utilisés : BigQuery, Cloud Logging, Compute Engine, Looker Studio |
Utiliser un pipeline CI/CD pour les workflows de traitement des données Explique comment configurer un pipeline d'intégration/de déploiement continu (CI/CD) pour le traitement des données en appliquant des méthodes CI/CD à l'aide de produits gérés sur Google Cloud. Produits utilisés : Cloud Build, Cloud Composer, Cloud Source Repositories, Cloud Storage, Compute Engine, Dataflow |
Utiliser Apache Hive sur Dataproc Ce tutoriel vous explique comment utiliser Apache Hive sur Dataproc de manière efficace et flexible en stockant des données Hive dans Cloud Storage et en hébergeant le métastore Hive dans une base de données MySQL sur Cloud SQL. Produits utilisés : Cloud SQL, Cloud Storage, Dataproc |