Integraciones en Bigtable

En esta página, se describen las integraciones entre Bigtable y otros productos y servicios.

Servicios de Google Cloud

En esta sección, se describen los servicios de Google Cloud con los que se integra Bigtable.

BigQuery

BigQuery es el almacén de datos de estadísticas completamente administrado, de bajo costo, con escala de petabytes de Google. Puedes usar BigQuery con Bigtable para los siguientes fines:

  • Puedes crear una tabla externa de BigQuery y, luego, usarla para consultar la tabla de Bigtable y unir los datos a otras tablas de BigQuery. Para obtener más información, consulta Cómo consultar datos de Bigtable.

  • Puedes exportar tus datos de BigQuery a una tabla de Bigtable con ETL inverso (RETL) de BigQuery a Bigtable. Para obtener más información, consulta Exporta datos a Bigtable (Versión preliminar).

Cloud Asset Inventory

Cloud Asset Inventory, que proporciona servicios de inventario basados en una base de datos de series temporales, admite y muestra tipos de recursos de Bigtable. Para obtener una lista completa, consulta Tipos de recursos admitidos.

Cloud Functions

Cloud Functions es una plataforma de procesamiento sin servidores basada en eventos que se integra en Bigtable.

En el instructivo Usa Bigtable con Cloud Functions, se muestra cómo escribir, implementar y activar un Bigtable HTTP en Node.js, Python y Go.

Data Catalog

Data Catalog es una función de Dataplex que cataloga los metadatos de los recursos de Bigtable de forma automática. La información de Data Catalog sobre tus datos puede facilitar el análisis, la reutilización, el desarrollo de aplicaciones y la administración de datos. Para obtener más información, consulta Administra recursos de datos con Data Catalog.

Dataflow

Dataflow es un servicio de nube y modelo de programación para el procesamiento de macrodatos. Es compatible con el procesamiento de transmisión y por lotes. Puedes usar Dataflow para procesar los datos almacenados en Bigtable o almacenar el resultado de tu canalización de Dataflow. También puedes usar plantillas de Dataflow para import y exportar tus datos como Avro, Parquet o SequenceFiles.

Para comenzar, consulta Conector de Bigtable Beam .

También puedes usar Bigtable como una búsqueda de clave-valor para enriquecer los datos de una canalización. Para obtener una descripción general, consulta Enriquece datos de transmisión. Si deseas ver un instructivo, consulta Usa Apache Beam y Bigtable para enriquecer datos.

Dataproc

Dataproc proporciona Apache Hadoop y productos relacionados como servicios administrados en la nube. Además, te permite ejecutar trabajos de Hadoop capaces de leer y escribir en Bigtable.

Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

Vertex AI Vector Search es una tecnología que puede buscar entre miles de millones de elementos similares o relacionados de manera semántica. Es útil para implementar motores de recomendaciones, chatbots y clasificación de texto.

Puedes usar Bigtable para almacenar incorporaciones vectoriales, exportarlas a un índice de búsqueda de vectores y, luego, consultar el índice en busca de elementos similares. Para ver un instructivo en el que se muestra un flujo de trabajo de muestra, consulta Bigtable a Vertex AI Vector Search Export en el repositorio workflows-demos de GitHub.

Macrodatos

En esta sección, se describen los productos de macrodatos con los que se integra Bigtable.

Apache Beam

Apache Beam es un modelo unificado para definir canalizaciones de procesamiento paralelo de datos por lotes y de transmisión. El conector de Bigtable Beam (BigtableIO) te ayuda a realizar operaciones por lotes y de transmisión en los datos de Bigtable en una canalización.

Si deseas ver un instructivo que muestra cómo usar el conector de Bigtable Beam para implementar una canalización de datos en Dataflow, consulta Procesa un flujo de cambios de Bigtable.

Apache Hadoop

Apache Hadoop es un framework que permite realizar un procesamiento distribuido de conjuntos de datos grandes entre clústeres de computadoras. Puedes usar Dataproc para crear un clúster de Hadoop y, luego, ejecutar trabajos de MapReduce capaces de leer y escribir en Bigtable.

Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.

StreamSets Data Collector

StreamSets Data Collector es una aplicación de transmisión de datos que puedes configurar para escribir datos en Bigtable. Ofrece una biblioteca de Bigtable en su repositorio de GitHub, en streamsets/datacollector.

Bases de datos de grafos

En esta sección, se describen las bases de datos de grafos con las que se integra Bigtable.

HGraphDB

HGraphDB es una capa de cliente para usar Apache HBase o Bigtable como una base de datos de grafos. Además, implementa las interfaces de Apache TinkerPop 3.

Si deseas obtener más información para ejecutar HGraphDB con la compatibilidad de Bigtable, consulta la documentación de HGraphDB.

JanusGraph

JanusGraph es una base de datos de gráficos escalable. Está optimizada para almacenar y consultar grafos que contienen cientos de miles de millones de vértices y bordes.

Si deseas obtener más información sobre cómo ejecutar JanusGraph con la asistencia de Bigtable, consulta Ejecuta JanusGraph con Bigtable o la documentación de JanusGraph.

Administración de la infraestructura

En esta sección, se describen las herramientas de administración de la infraestructura con las que se integra Bigtable.

Pivotal Cloud Foundry

Pivotal Cloud Foundry es una plataforma de desarrollo y de implementación de aplicaciones que ofrece la capacidad de vincular una aplicación a Bigtable.

Terraform

Terraform es una herramienta de código abierto que codifica las API en archivos de configuración declarativos. Estos archivos se pueden compartir entre los miembros del equipo, se pueden tratar como código, se pueden editar, revisar, o se puede crear versiones nuevas de ellos.

Para obtener más información sobre el uso de Bigtable con Terraform, consulta Instancia de Bigtable y Tabla de Bigtable en la documentación de Terraform.

Supervisión y bases de datos de series temporales

En esta sección, se describen las herramientas de supervisión y bases de datos de series temporales con las que se integra Bigtable.

Heroic

Heroic es un sistema de supervisión y una base de datos de serie temporal. Heroic puede usar Bigtable para almacenar sus datos.

Si deseas obtener más información sobre Heroic, consulta el repositorio de GitHub spotify/heroic y la documentación sobre cómo configurar Bigtable y cómo configurar métricas.

OpenTSDB

OpenTSDB es una base de datos de series temporales que puede usar Bigtable para almacenamiento. En Supervisa datos de series temporales con OpenTSDB en Bigtable y GKE, se muestra cómo usar OpenTSDB para recopilar, registrar y supervisar datos de series temporales en Google Cloud. En la documentación de OpenTSDB, se proporciona información adicional para ayudarte a comenzar.