Integraciones con Bigtable

En esta página se describen las integraciones entre Bigtable y otros productos y servicios.

Google Cloud servicios

En esta sección se describen los Google Cloud servicios con los que se integra Bigtable.

BigQuery

BigQuery es el almacén de datos de analíticas de Google totalmente gestionado, de bajo coste y escalable a petabytes. Puedes usar BigQuery con Bigtable para lo siguiente:

  • Puedes crear una tabla externa de BigQuery y, a continuación, usarla para consultar tu tabla de Bigtable y combinar los datos con otras tablas de BigQuery. Para obtener más información, consulta Consultar datos de Bigtable.

  • Puedes exportar tus datos de BigQuery a una tabla de Bigtable mediante la ETL inversa (RETL) de BigQuery a Bigtable. Para obtener más información, consulta Exportar datos a Bigtable.

Inventario de Recursos de Cloud

Inventario de Recursos de Cloud, que proporciona servicios de inventario basados en una base de datos de series temporales, admite y devuelve tipos de recursos de Bigtable. Para ver una lista completa, consulta Tipos de recursos admitidos.

Dataplex Universal Catalog

Dataplex Universal Catalog y Data Catalog (obsoleto) catalogan automáticamente los metadatos de los recursos de Bigtable. La información catalogada sobre tus datos puede facilitar el análisis, la reutilización de datos, el desarrollo de aplicaciones y la gestión de datos. Para obtener más información, consulta Gestionar recursos de datos con Data Catalog.

Dataflow

Dataflow es un servicio en la nube y un modelo de programación para el procesamiento de big data. Dataflow admite el procesamiento por lotes y en streaming. Puedes usar Dataflow para procesar los datos almacenados en Bigtable o para guardar la salida de tu flujo de procesamiento de Dataflow. También puedes usar plantillas de Dataflow para exportar e importar tus datos como archivos Avro, Parquet o SequenceFiles.

Para empezar, consulta el artículo Conector de Bigtable Beam.

También puedes usar Bigtable como una búsqueda de clave-valor para enriquecer los datos de una canalización. Para obtener una descripción general, consulta Enriquecer datos de streaming. Para ver un tutorial, consulta Usar Apache Beam y Bigtable para enriquecer datos.

Dataproc

Dataproc proporciona Apache Hadoop y productos relacionados como servicio gestionado en la nube. Con Dataproc, puedes ejecutar tareas de Hadoop que lean y escriban datos en Bigtable.

Para ver un ejemplo de una tarea MapReduce de Hadoop que usa Bigtable, consulta el directorio /java/dataproc-wordcount del repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Vertex AI Vector Search es una tecnología que puede buscar entre miles de millones de elementos semánticamente similares o relacionados. Es útil para implementar motores de recomendaciones, chatbots y clasificación de texto.

Puedes usar Bigtable para almacenar incrustaciones de vectores, exportarlas a un índice de Vector Search y, a continuación, consultar el índice para buscar elementos similares. Para ver un tutorial que muestra un flujo de trabajo de ejemplo, consulta Exportación de Bigtable a Vertex AI Vector Search en el repositorio de workflows-demosGitHub.

También puedes enviar actualizaciones de streaming para mantener el índice de búsqueda de vectores sincronizado con Bigtable en tiempo real. Para obtener más información, consulta la plantilla de flujos de cambios de Bigtable a Vector Search.

Big Data

En esta sección se describen los productos de Big Data con los que se integra Bigtable.

Apache Beam

Apache Beam es un modelo unificado que se utiliza para definir los flujos de procesamiento en paralelo de los datos por lotes y en streaming. El conector de Beam para Bigtable (BigtableIO) te ayuda a realizar operaciones por lotes y de streaming en datos de Bigtable en una canalización.

Para ver un tutorial sobre cómo usar el conector de Bigtable Beam para implementar una canalización de datos en Dataflow, consulta Procesar un flujo de cambios de Bigtable.

Apache Hadoop

Apache Hadoop es un framework que permite el procesamiento distribuido de grandes conjuntos de datos en clústeres de ordenadores. Puedes usar Dataproc para crear un clúster de Hadoop y, a continuación, ejecutar tareas de MapReduce que lean y escriban datos en Bigtable.

Para ver un ejemplo de una tarea MapReduce de Hadoop que usa Bigtable, consulta el directorio /java/dataproc-wordcount del repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

StreamSets Data Collector

StreamSets Data Collector es una aplicación de streaming de datos que puedes configurar para escribir datos en Bigtable. StreamSets proporciona una biblioteca de Bigtable en su repositorio de GitHub, disponible en streamsets/datacollector.

Representa gráficamente bases de datos

En esta sección se describen las bases de datos de grafos con las que se integra Bigtable.

HGraphDB

HGraphDB es una capa de cliente para usar Apache HBase o Bigtable como base de datos de grafos. Implementa las interfaces Apache TinkerPop 3.

Para obtener más información sobre cómo ejecutar HGraphDB con compatibilidad con Bigtable, consulta la documentación de HGraphDB.

JanusGraph

JanusGraph es una base de datos de grafos escalable. Está optimizada para almacenar y consultar gráficos que contienen cientos de miles de millones de vértices y aristas.

Para obtener más información sobre cómo ejecutar JanusGraph con compatibilidad con Bigtable, consulta el artículo Ejecutar JanusGraph con Bigtable o la documentación de JanusGraph.

Gestión de infraestructuras

En esta sección se describen las herramientas de gestión de infraestructura con las que se integra Bigtable.

Pivotal Cloud Foundry

Pivotal Cloud Foundry es una plataforma de desarrollo y despliegue de aplicaciones que ofrece la posibilidad de vincular una aplicación a Bigtable.

Terraform

Terraform es una herramienta de código abierto que codifica APIs en archivos de configuración declarativos. Estos archivos se pueden compartir entre los miembros del equipo, tratarse como código, editarse, revisarse y versionarse.

Para obtener más información sobre cómo usar Bigtable con Terraform, consulta Instancia de Bigtable y Tabla de Bigtable en la documentación de Terraform.

Bases de datos de series temporales y monitorización

En esta sección se describen las bases de datos de series temporales y las herramientas de monitorización con las que se integra Bigtable.

OpenTSDB

OpenTSDB es una base de datos de series temporales que puede usar Bigtable para el almacenamiento. En la documentación de OpenTSDB encontrará información que le ayudará a dar los primeros pasos.