Integrazioni con Bigtable

Questa pagina descrive le integrazioni tra Bigtable e altri prodotti e servizi.

Servizi Google Cloud

Questa sezione descrive i servizi Google Cloud con cui si integra Bigtable.

BigQuery

BigQuery è il data warehouse di analisi di Google completamente gestito, a basso costo e su scala petabyte. Puoi utilizzare BigQuery con Bigtable per i seguenti scopi:

  • Puoi creare una tabella BigQuery esterna e utilizzarla per eseguire query sulla tabella Bigtable e unire i dati ad altre tabelle BigQuery. Per ulteriori informazioni, consulta Eseguire query sui dati di Bigtable.

  • Puoi esportare i dati BigQuery in una tabella Bigtable utilizzando l'ETL inverso (RETL) da BigQuery a Bigtable. Per ulteriori informazioni, consulta Esportare i dati in Bigtable (anteprima).

Cloud Asset Inventory

Cloud Asset Inventory, che fornisce servizi di inventario basati su un database di serie temporali, supporta e restituisce tipi di risorse Bigtable. Per un elenco completo, vedi Tipi di risorse supportati.

Cloud Functions

Cloud Functions è una piattaforma di serverless computing basata su eventi che si integra con Bigtable.

Il tutorial Utilizzo di Bigtable con Cloud Functions mostra come scrivere, eseguire il deployment e attivare una Bigtable HTTP in Node.js, Python e Go.

Data Catalog

Data Catalog è una funzionalità di Dataplex che cataloga automaticamente i metadati sulle risorse Bigtable. Le informazioni di Data Catalog sui tuoi dati possono essere utili per analisi, riutilizzo, sviluppo di applicazioni e gestione dei dati. Per ulteriori informazioni, consulta Gestire gli asset di dati utilizzando Data Catalog.

Dataflow

Dataflow è un modello di servizio e programmazione per l'elaborazione di big data. Dataflow supporta l'elaborazione sia in batch che in flussi. Puoi utilizzare Dataflow per elaborare i dati archiviati in Bigtable o per archiviare l'output della pipeline Dataflow. Puoi utilizzare i modelli Dataflow anche per esportare e import i dati come Avro, Parquet o SequenceFiles.

Per iniziare, consulta Connettore Bigtable Beam .

Puoi anche utilizzare Bigtable come ricerca chiave-valore per arricchire i dati in una pipeline. Per una panoramica, consulta Arricchire i dati in modalità flusso. Per un tutorial, consulta Utilizzare Apache Beam e Bigtable per arricchire i dati.

Dataproc

Dataproc fornisce Apache Hadoop e prodotti correlati come servizio gestito nel cloud. Con Dataproc puoi eseguire job Hadoop che leggono e scrivono in Bigtable.

Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta la directory /java/dataproc-wordcount nel repository GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Vertex AI Vector Search è una tecnologia che può eseguire ricerche tra miliardi di elementi semanticamente simili o correlati. È utile per implementare motori per suggerimenti, chatbot e classificazione del testo.

Puoi utilizzare Bigtable per archiviare incorporamenti vettoriali, esportarli in un indice di Vector Search ed eseguire query sull'indice per elementi simili. Per un tutorial che illustra un flusso di lavoro di esempio, consulta Bigtable to Vertex AI Vector Search Export nel repository GitHub di workflows-demos.

Big data

Questa sezione descrive i prodotti big data con cui si integra Bigtable.

Apache Beam

Apache Beam è un modello unificato per la definizione di pipeline di elaborazione parallela dei dati in modalità flusso e batch. Il connettore Bigtable Beam (BigtableIO) consente di eseguire operazioni in modalità flusso e batch sui dati di Bigtable in una pipeline.

Per un tutorial che mostra come utilizzare il connettore Bigtable Beam per eseguire il deployment di una pipeline di dati in Dataflow, consulta Elaborare un flusso di modifiche Bigtable.

Apache Hadoop

Apache Hadoop è un framework che consente l'elaborazione distribuita di grandi set di dati su cluster di computer. Puoi utilizzare Dataproc per creare un cluster Hadoop, quindi eseguire i job MapReduce che leggono e scrivono in Bigtable.

Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta la directory /java/dataproc-wordcount nel repository GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Raccoglitore dati StreamSets

Il raccoglitore dati StreamSets è un'applicazione di streaming di dati che puoi configurare per scrivere dati in Bigtable. StreamSets fornisce una libreria Bigtable nel suo repository GitHub all'indirizzo streamsets/datacollector.

Database di grafici

Questa sezione descrive i database di grafici con cui si integra Bigtable.

Grafico H

HGraphDB è un livello client per l'utilizzo di Apache HBase o Bigtable come database di grafici. Implementa le interfacce Apache TinkerPop 3.

Per ulteriori informazioni sull'esecuzione di HGraphDB con il supporto per Bigtable, consulta la documentazione di HGraphDB.

JanusGraph

JanusGraph è un database di grafici scalabile. È ottimizzata per l'archiviazione e l'esecuzione di query su grafici contenenti centinaia di miliardi di vertici e bordi.

Per ulteriori informazioni sull'esecuzione di JanusGraph con supporto Bigtable, consulta Esecuzione di JanusGraph con Bigtable o la documentazione di JanusGraph.

Gestione dell'infrastruttura

Questa sezione descrive gli strumenti di gestione dell'infrastruttura con cui si integra Bigtable.

Pivotal Cloud Foundry

Pivotal Cloud Foundry è una piattaforma di sviluppo e deployment di applicazioni che offre la possibilità di associare un'applicazione a Bigtable.

Terraform

Terraform è uno strumento open source che codifica le API in file di configurazione dichiarativi. Questi file possono essere condivisi tra i membri del team, trattati come codice, modificati, rivisti e sottoposti al controllo delle versioni.

Per ulteriori informazioni sull'utilizzo di Bigtable con Terraform, consulta Istanza Bigtable e Tabella Bigtable nella documentazione di Terraform.

Database e monitoraggio delle serie temporali

Questa sezione descrive i database delle serie temporali e gli strumenti di monitoraggio con cui si integra Bigtable.

Eroico

Heroic è un sistema di monitoraggio e un database delle serie temporali. Heroic può utilizzare Bigtable per archiviare i dati.

Per ulteriori informazioni su Heroic, consulta il repository GitHub spotify/heroic, nonché la documentazione per la configurazione di Bigtable e della configurazione delle metriche.

OpenTSDB

OpenTSDB è un database delle serie temporali che può utilizzare Bigtable per l'archiviazione. Il monitoraggio dei dati delle serie temporali con OpenTSDB su Bigtable e GKE mostra come utilizzare OpenTSDB per raccogliere, registrare e monitorare i dati delle serie temporali su Google Cloud. La documentazione di OpenTSDB fornisce informazioni aggiuntive per aiutarti a iniziare.