Integraciones en Bigtable

En esta página, se describen las integraciones entre Bigtable y otros productos y servicios.

Servicios de Google Cloud

En esta sección, se describen los servicios de Google Cloud con los que se integra Bigtable.

BigQuery

BigQuery es el almacén de datos de estadísticas completamente administrado, de bajo costo, con escala de petabytes de Google. Puedes usar BigQuery con Bigtable para los siguientes fines:

  • Puedes crear una tabla externa de BigQuery y, luego, usarla para consultar tu tabla de Bigtable y unir los datos con otras tablas de BigQuery. Para obtener más información, visita Consulta datos de Bigtable.

  • Puedes exportar tus datos de BigQuery a una tabla de Bigtable con ETL inverso (RETL) de BigQuery a Bigtable. Para obtener más información, consulta Exporta datos a Bigtable (vista previa).

Cloud Asset Inventory

Cloud Asset Inventory, que proporciona servicios de inventario basados en una base de datos de series temporales, admite y muestra tipos de recursos de Bigtable. Para obtener una lista completa, consulta Tipos de recursos admitidos.

Data Catalog

Data Catalog es una función de Dataplex que cataloga automáticamente los metadatos La información de Data Catalog sobre tus datos puede ayudar a facilitar el análisis, la reutilización de datos, el desarrollo de aplicaciones y la administración de datos. Para obtener más información, consulta Administra recursos de datos con Data Catalog.

Dataflow

Dataflow es un servicio de nube y modelo de programación para el procesamiento de macrodatos. Es compatible con el procesamiento de transmisión y por lotes. Puedes usar Dataflow para procesar los datos almacenados en Bigtable o almacenar el resultado de tu canalización de Dataflow. También puedes usar las plantillas de Dataflow para import y exportar los datos como Avro, Parquet o SequenceFiles.

Para comenzar, consulta Conector de Bigtable de Beam.

También puedes usar Bigtable como una búsqueda de pares clave-valor para enriquecer los datos de una canalización. Para obtener una descripción general, consulta Enriquece datos de transmisión. Si quieres ver un instructivo, consulta Cómo usar Apache Beam y Bigtable para enriquecer datos.

Dataproc

Dataproc proporciona Apache Hadoop y productos relacionados como servicios administrados en la nube. Además, te permite ejecutar trabajos de Hadoop capaces de leer y escribir en Bigtable.

Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

La búsqueda de vectores de Vertex AI es una tecnología que puede buscar entre miles de millones de elementos semánticos similares o relacionados semánticamente. Es útil para implementar motores de recomendaciones, chatbots y la clasificación de texto.

Puedes usar Bigtable para almacenar incorporaciones vectoriales, exportarlas a un índice de búsqueda de vectores y, luego, consultar el índice en busca de elementos similares. Para ver un instructivo en el que se demuestra un flujo de trabajo de muestra, consulta Bigtable a Vertex AI Vector Search Export en el repositorio workflows-demos de GitHub.

Macrodatos

En esta sección, se describen los productos de macrodatos con los que se integra Bigtable.

Apache Beam

Apache Beam es un modelo unificado para definir canalizaciones de procesamiento paralelo de datos por lotes y de transmisión. El conector de Bigtable Beam (BigtableIO) te ayuda a realizar operaciones por lotes y de transmisión en datos de Bigtable en una canalización.

Si quieres ver un instructivo que muestra cómo usar el conector de Bigtable Beam para implementar una canalización de datos en Dataflow, consulta Procesa un flujo de cambios de Bigtable.

Apache Hadoop

Apache Hadoop es un framework que permite realizar un procesamiento distribuido de conjuntos de datos grandes entre clústeres de computadoras. Puedes usar Dataproc para crear un clúster de Hadoop y, luego, ejecutar trabajos de MapReduce capaces de leer y escribir en Bigtable.

Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

StreamSets Data Collector

StreamSets Data Collector es una aplicación de transmisión de datos que puedes configurar para escribir datos en Bigtable. Ofrece una biblioteca de Bigtable en su repositorio de GitHub, en streamsets/datacollector.

Bases de datos de grafos

En esta sección, se describen las bases de datos de grafos con las que se integra Bigtable.

HGraphDB

HGraphDB es una capa de cliente para usar Apache HBase o Bigtable como una base de datos de grafos. Además, implementa las interfaces de Apache TinkerPop 3.

Si deseas obtener más información sobre cómo ejecutar HGraphDB con la compatibilidad de Bigtable, consulta la documentación de HGraphDB.

JanusGraph

JanusGraph es una base de datos de gráficos escalable. Está optimizada para almacenar y consultar grafos que contienen cientos de miles de millones de vértices y bordes.

Si deseas obtener más información para ejecutar JanusGraph con la compatibilidad de Bigtable, consulta Ejecuta JanusGraph con Bigtable o la documentación de JanusGraph.

Administración de la infraestructura

En esta sección, se describen las herramientas de administración de la infraestructura con las que se integra Bigtable.

Pivotal Cloud Foundry

Pivotal Cloud Foundry es una plataforma de desarrollo y de implementación de aplicaciones que ofrece la capacidad de vincular una aplicación a Bigtable.

Terraform

Terraform es una herramienta de código abierto que codifica las API en archivos de configuración declarativos. Estos archivos se pueden compartir entre los miembros del equipo, se pueden tratar como código, se pueden editar, revisar, o se puede crear versiones nuevas de ellos.

Para obtener más información sobre el uso de Bigtable con Terraform, consulta Instancia de Bigtable y Tabla de Bigtable en la documentación de Terraform.

Supervisión y bases de datos de series temporales

En esta sección, se describen las herramientas de supervisión y bases de datos de series temporales con las que se integra Bigtable.

Heroic

Heroic es un sistema de supervisión y una base de datos de serie temporal. Heroic puede usar Bigtable para almacenar sus datos.

Si deseas obtener más información sobre Heroic, consulta el repositorio de GitHub spotify/heroic y la documentación sobre cómo configurar Bigtable y cómo configurar métricas.

OpenTSDB

OpenTSDB es una base de datos de series temporales que puede usar Bigtable para almacenamiento. La documentación de OpenTSDB proporciona información para ayudarte a comenzar.