Integraciones con Bigtable
En esta página, se describen las integraciones entre Bigtable y otros productos y servicios.
Servicios de Google Cloud
En esta sección, se describen los servicios de Google Cloud con los que se integra Bigtable.
BigQuery
BigQuery es el almacén de datos de estadísticas completamente administrado, de bajo costo, con escala de petabytes de Google. Puedes usar BigQuery con Bigtable para los siguientes fines:
Puedes crear una tabla externa de BigQuery y, luego, usarla para consultar tu tabla de Bigtable y unir los datos a otras tablas de BigQuery. Para obtener más información, consulta Consulta datos de Bigtable.
Puedes usar la ETL inversa (RETL) de BigQuery a Bigtable para exportar tus datos de BigQuery a una tabla de Bigtable. Para obtener más información, consulta Cómo exportar datos a Bigtable.
Cloud Asset Inventory
Cloud Asset Inventory, que proporciona servicios de inventario basados en una base de datos de series temporales, admite y muestra tipos de recursos de Bigtable. Para obtener una lista completa, consulta Tipos de recursos admitidos.
Data Catalog
Data Catalog es una función de Dataplex que cataloga automáticamente los metadatos de los recursos de Bigtable. La información de Data Catalog sobre tus datos puede ayudar a facilitar el análisis, la reutilización de datos, el desarrollo de aplicaciones y la administración de datos. Para obtener más información, consulta Administra recursos de datos con Data Catalog.
Dataflow
Dataflow es un servicio de nube y modelo de programación para el procesamiento de macrodatos. Es compatible con el procesamiento de transmisión y por lotes. Puedes usar Dataflow para procesar los datos almacenados en Bigtable o almacenar el resultado de tu canalización de Dataflow. También puedes usar plantillas de Dataflow para import y exportar los datos como Avro, Parquet o SequenceFiles.
Para comenzar, consulta Conector de Bigtable Beam.
También puedes usar Bigtable como una búsqueda de par clave-valor para enriquecer los datos en una canalización. Para obtener una descripción general, consulta Cómo enriquecer los datos de transmisión. Para ver un instructivo, consulta Usa Apache Beam y Bigtable para enriquecer los datos.
Dataproc
Dataproc proporciona Apache Hadoop y productos relacionados como servicios administrados en la nube. Además, te permite ejecutar trabajos de Hadoop capaces de leer y escribir en Bigtable.
Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount
en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.
Vector Search de Vertex AI
La Búsqueda de vectores de Vertex AI es una tecnología que puede realizar búsquedas entre miles de millones de elementos similares o relacionados de manera semántica. Es útil para implementar motores de recomendaciones, chatbots y clasificación de texto.
Puedes usar Bigtable para almacenar embeddings de vectores, exportarlos a un índice de búsqueda vectorial y, luego, consultar el índice en busca de elementos similares. Para ver un instructivo que demuestre un flujo de trabajo de ejemplo, consulta Bigtable a Vertex AI Vector Search Export en el repositorio de GitHub de workflows-demos
.
Macrodatos
En esta sección, se describen los productos de macrodatos con los que se integra Bigtable.
Apache Beam
Apache Beam es un modelo unificado para definir canalizaciones de procesamiento paralelo de datos de transmisión y en lote. El conector de Beam para Bigtable (BigtableIO
) te ayuda a realizar operaciones por lotes y de transmisión en datos de Bigtable en una canalización.
Si quieres ver un instructivo en el que se muestra cómo usar el conector de Bigtable Beam para implementar una canalización de datos en Dataflow, consulta Cómo procesar un flujo de cambios de Bigtable.
Apache Hadoop
Apache Hadoop es un framework que permite realizar un procesamiento distribuido de conjuntos de datos grandes entre clústeres de computadoras. Puedes usar Dataproc para crear un clúster de Hadoop y, luego, ejecutar trabajos de MapReduce capaces de leer y escribir en Bigtable.
Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount
en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.
StreamSets Data Collector
StreamSets Data Collector es una aplicación de transmisión de datos que puedes configurar para escribir datos en Bigtable. Ofrece una biblioteca de Bigtable en su repositorio de GitHub, en streamsets/datacollector.
Bases de datos de grafos
En esta sección, se describen las bases de datos de grafos con las que se integra Bigtable.
HGraphDB
HGraphDB es una capa de cliente para usar Apache HBase o Bigtable como una base de datos de grafos. Además, implementa las interfaces de Apache TinkerPop 3.
Si deseas obtener más información para ejecutar HGraphDB con la compatibilidad de Bigtable, consulta la documentación de HGraphDB.
JanusGraph
JanusGraph es una base de datos de gráficos escalable. Está optimizada para almacenar y consultar grafos que contienen cientos de miles de millones de vértices y bordes.
Si quieres obtener más información sobre cómo ejecutar JanusGraph con la asistencia de Bigtable, consulta Ejecuta JanusGraph con Bigtable o la documentación de JanusGraph.
Administración de la infraestructura
En esta sección, se describen las herramientas de administración de la infraestructura con las que se integra Bigtable.
Pivotal Cloud Foundry
Pivotal Cloud Foundry es una plataforma de desarrollo y de implementación de aplicaciones que ofrece la capacidad de vincular una aplicación a Bigtable.
Terraform
Terraform es una herramienta de código abierto que codifica las API en archivos de configuración declarativos. Estos archivos se pueden compartir entre los miembros del equipo, se pueden tratar como código, se pueden editar, revisar, o se puede crear versiones nuevas de ellos.
Si quieres obtener más información para usar Bigtable con Terraform, consulta Instancia de Bigtable y Tabla de Bigtable en la documentación de Terraform.
Supervisión y bases de datos de series temporales
En esta sección, se describen las herramientas de supervisión y bases de datos de series temporales con las que se integra Bigtable.
Heroic
Heroic es un sistema de supervisión y una base de datos de serie temporal. Heroic puede usar Bigtable para almacenar sus datos.
Si deseas obtener más información sobre Heroic, consulta el repositorio de GitHub spotify/heroic y la documentación sobre cómo configurar Bigtable y cómo configurar métricas.
OpenTSDB
OpenTSDB es una base de datos de series temporales que puede usar Bigtable para almacenamiento. En la documentación de OpenTSDB, se proporciona información para ayudarte a comenzar.