Intégrations avec Bigtable

Cette page décrit les intégrations entre Cloud Bigtable et d'autres produits et services.

Services Google Cloud

Cette section décrit les services Google Cloud auxquels Bigtable est intégré.

BigQuery

BigQuery correspond à l'entrepôt de données d'analyse de Google, entièrement géré à l'échelle du pétaoctet et à faible coût. Vous pouvez utiliser BigQuery pour interroger des données stockées dans Bigtable.

Pour commencer, consultez la section Interroger des données Bigtable.

Cloud Functions

Cloud Functions est une plate-forme de calcul sans serveur basée sur des événements, qui s'intègre à Bigtable.

Le tutoriel Utiliser Bigtable avec Cloud Functions montre comment écrire, déployer et déclencher une table HTTP Bigtable en Node.js, Python et Go.

Dataflow

Dataflow est un service cloud et un modèle de programmation destiné au traitement big data. Dataflow est compatible avec le traitement par lot et le traitement en flux continu. Vous pouvez utiliser Dataflow pour traiter les données stockées dans Bigtable ou pour stocker le résultat de votre pipeline Dataflow. Vous pouvez également vous servir de modèles Dataflow pour exporter et importer vos données sous forme de fichiers Avro, Parquet ou SequenceFiles.

Pour commencer, consultez la section Connecteur Dataflow pour Bigtable.

Dataproc

Dataproc fournit Apache Hadoop et les produits associés sous forme de service géré dans le cloud. Grâce à Dataproc, vous pouvez exécuter des tâches Hadoop qui lisent des données depuis Bigtable et écrivent des données dans Bigtable.

Pour obtenir un exemple de tâche Hadoop MapReduce qui utilise Bigtable, accédez au répertoire /java/dataproc-wordcount dans le dépôt GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Big data

Cette section décrit les produits big data auxquels Bigtable s'intègre.

Apache Hadoop

Apache Hadoop est un framework qui permet le traitement distribué de grands ensembles de données par des clusters d'ordinateurs. Vous pouvez utiliser Dataproc pour créer un cluster Hadoop, puis exécuter des tâches MapReduce qui lisent des données depuis Bigtable et écrivent des données dans Bigtable.

Pour obtenir un exemple de tâche Hadoop MapReduce qui utilise Bigtable, accédez au répertoire /java/dataproc-wordcount dans le dépôt GitHub GoogleCloudPlatform/cloud-bigtable-examples.

StreamSets Data Collector

StreamSets Data Collector est une application de streaming de données que vous pouvez configurer pour écrire des données dans Bigtable. StreamSets fournit une bibliothèque Bigtable dans son dépôt GitHub sous streamsets/datacollector.

Bases de données géospatiales

Cette section décrit les bases de données géospatiales avec lesquelles Bigtable s'intègre.

GeoMesa

GeoMesa est une base de données spatio-temporelle distribuée qui permet l'interrogation spatiale et la manipulation de données. GeoMesa peut utiliser Bigtable pour stocker ses données.

Pour en savoir plus sur l'exécution de GeoMesa avec l'assistance Bigtable, consultez la documentation de GeoMesa.

Bases de données de graphes

Cette section décrit les bases de données de graphes auxquelles Bigtable s'intègre.

HGraphDB

HGraphDB est une couche cliente qui permet d'utiliser Apache HBase ou Bigtable en tant que base de données de graphes. Elle met en œuvre les interfaces Apache TinkerPop 3.

Pour en savoir plus sur l'exécution de HGraphDB avec l'assistance Bigtable, consultez la documentation de HGraphDB.

JanusGraph

JanusGraph est une base de données de graphes évolutive. Elle est optimisée pour stocker et interroger des graphes contenant des centaines de milliards de sommets et d'arêtes.

Pour en savoir plus sur l'exécution de JanusGraph avec Bigtable, consultez la page Running JanusGraph avec Bigtable ou la documentation JanusGraph.

Gestion des infrastructures

Cette section décrit les outils de gestion d'infrastructures auxquels Bigtable s'intègre.

Pivotal Cloud Foundry

Pivotal Cloud Foundry est une plate-forme de développement et de déploiement d'applications qui permet de lier une application à Bigtable.

Terraform

Terraform est un outil Open Source qui codifie les API dans des fichiers de configuration déclaratifs. Ces fichiers peuvent être partagés par les membres d'une équipe, traités comme du code, édités, révisés et versionnés.

Pour plus d'informations sur l'utilisation de Bigtable avec Terraform, consultez les pages Bigtable Instance et Bigtable Table dans la documentation de Terraform.

Bases de données de séries temporelles et surveillance

Cette section décrit les bases de données de séries temporelles et les outils de surveillance avec lesquels Bigtable s'intègre.

Heroic

Heroic est un système de surveillance et une base de données de séries temporelles. Heroic peut utiliser Bigtable pour stocker ses données.

Pour en savoir plus sur Heroic, consultez le dépôt GitHub spotify/heroic, ainsi que la documentation sur la configuration de Bigtable et la configuration de métriques.

OpenTSDB

OpenTSDB est une base de données de séries temporelles pouvant utiliser Bigtable pour le stockage. La page Surveiller des données de séries temporelles avec OpenTSDB sur Bigtable et GKE explique comment utiliser OpenTSDB pour collecter, enregistrer et surveiller les données de séries temporelles sur Google Cloud. La documentation OpenTSDB fournit des informations supplémentaires pour vous aider à démarrer.