Integrazioni con Bigtable

Questa pagina descrive le integrazioni tra Cloud Bigtable e altri prodotti e servizi.

Servizi Google Cloud

Questa sezione descrive i servizi Google Cloud con cui Bigtable si integra.

BigQuery

BigQuery è un data warehouse di analisi di Google completamente gestito, a basso costo e con capacità di petabyte. Puoi utilizzare BigQuery per eseguire query sui dati archiviati in Bigtable.

Per iniziare, consulta Esecuzione di query sui dati di Bigtable.

Cloud Asset Inventory

Cloud Asset Inventory, che fornisce servizi di inventario in base a un database di serie temporali, supporta e restituisce tipi di risorse Bigtable. Per un elenco completo, consulta i tipi di risorse supportati.

Cloud Functions

Cloud Functions è una piattaforma di computing serverless basata sugli eventi che si integra con Bigtable.

Il tutorial Utilizzo di Bigtable con Cloud Functions dimostra come scrivere, eseguire il deployment e attivare una bigtable HTTP in Node.js, Python e Go.

Dataflow

Dataflow è un servizio cloud e un modello di programmazione per l'elaborazione di big data. Dataflow supporta sia l'elaborazione batch che l'elaborazione in modalità flusso. Puoi utilizzare Dataflow per elaborare i dati archiviati in Bigtable o per archiviare l'output della tua pipeline Dataflow. Puoi anche utilizzare i modelli Dataflow per esportare e importare i dati come Avro, Parquet o SequenzaFile.

Per iniziare, consulta Dataflow Connector for Bigtable.

Dataproc

Dataproc fornisce Apache Hadoop e prodotti correlati come servizio gestito nel cloud. Con Dataproc puoi eseguire job Hadoop che leggono e scrivono su Bigtable.

Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta la directory /java/dataproc-wordcount nel repository GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Big data

Questa sezione descrive i prodotti per big data con cui Bigtable si integra.

Apache Hadoop

Apache Hadoop è un framework che consente l'elaborazione distribuita di grandi set di dati in cluster di computer. Puoi utilizzare Dataproc per creare un cluster Hadoop, quindi eseguire job MapReduce che leggono e scrivono in Bigtable.

Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta la directory /java/dataproc-wordcount nel repository GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Raccoglitore dati StreamSet

StreamSets Data Collector è un'applicazione per lo streaming di dati che puoi configurare per scrivere dati su Bigtable. StreamSets fornisce una libreria Bigtable nel suo repository GitHub in streamsets/datacollector.

Database geospaziali

Questa sezione descrive i database geospaziali con cui Bigtable si integra.

Area geografica GeoMesa

GeoMesa è un database spatio-temporale distribuito che supporta l'interrogazione spaziale e la manipolazione dei dati. GeoMesa può utilizzare Bigtable per archiviare i propri dati.

Per ulteriori informazioni sull'esecuzione di GeoMesa con supporto di Bigtable, consulta la documentazione di GeoMesa.

Database di grafici

Questa sezione descrive i database di grafici con cui Bigtable si integra.

GraphDB

HGraphDB è un livello client per l'utilizzo di Apache HBase o Bigtable come database di grafici. Implementa le interfacce Apache TinkerPop 3.

Per ulteriori informazioni sull'esecuzione di HGraphDB con il supporto di Bigtable, consulta la documentazione relativa a HGraphDB.

Grafico di JanusGraph

JanusGraph è un database di grafici scalabile. È ottimizzata per l'archiviazione e l'esecuzione di query su grafici contenenti centinaia di miliardi di vertici e spigoli.

Per ulteriori informazioni sull'esecuzione di JanusGraph con il supporto di Bigtable, consulta la sezione relativa all'esecuzione di JanusGraph con Bigtable o alla documentazione di JanusGraph.

Gestione dell'infrastruttura

Questa sezione descrive gli strumenti di gestione dell'infrastruttura con cui Bigtable si integra.

Pivotal Cloud Foundry

Pivotal Cloud Foundry è una piattaforma di sviluppo e deployment delle applicazioni che offre la possibilità di vincolare un'applicazione a Bigtable.

Terraform

Terraform è uno strumento open source che codifica le API in file di configurazione dichiarativi. Questi file possono essere condivisi tra i membri del team e trattati come codice, modificati, rivisti e sottoposti al controllo del versioni.

Per ulteriori informazioni sull'utilizzo di Bigtable con Terraform, consulta Istanza Bigtable e Tabella Bigtable nella documentazione di Terraform.

Database e monitoraggio delle serie temporali

Questa sezione descrive i database delle serie temporali e gli strumenti di monitoraggio con cui Bigtable è integrato.

Eroica

Heroic è un sistema di monitoraggio e un database di serie temporali. Heroic può utilizzare Bigtable per archiviare i propri dati.

Per ulteriori informazioni su Heroic, consulta il repository GitHub spotify/heroic, oltre alla documentazione relativa alla configurazione di Bigtable e alla configurazione delle metriche.

OpenTSDB

OpenTSDB è un database delle serie temporali che può utilizzare Bigtable per l'archiviazione. Il monitoraggio dei dati delle serie temporali con OpenTSDB su Bigtable e GKE mostra come utilizzare OpenTSDB per raccogliere, registrare e monitorare i dati delle serie temporali su Google Cloud. La documentazione di OpenTSDB fornisce informazioni aggiuntive per aiutarti a iniziare.