Integraciones con Bigtable
En esta página, se describen las integraciones entre Bigtable y otros productos, y de Google Cloud.
Servicios de Google Cloud
En esta sección, se describen los servicios de Google Cloud con los que se integra Bigtable.
BigQuery
BigQuery es el almacén de datos de estadísticas completamente administrado, de bajo costo, con escala de petabytes de Google. Puedes usar BigQuery con Bigtable con los siguientes fines:
Puedes crear una tabla externa de BigQuery y, luego, usarla para consultar tu tabla de Bigtable y unir los datos a otras tablas de BigQuery. Para obtener más información, consulta Consulta Datos de Bigtable.
Puedes usar la ETL inversa (RETL) de BigQuery a Bigtable para exportar tus datos de BigQuery a una tabla de Bigtable. Para obtener más información, consulta Exportar datos a Bigtable
Cloud Asset Inventory
Cloud Asset Inventory, que proporciona servicios de inventario basados en una base de datos de series temporales, admite y muestra tipos de recursos de Bigtable. Para obtener una lista completa, consulta Tipos de recursos admitidos.
Data Catalog
Data Catalog es una función de Dataplex que y cataloga metadatos sobre recursos de Bigtable. La información de Data Catalog sobre tus datos puede ayudar a facilitar el análisis, la reutilización de datos, el desarrollo de aplicaciones y la administración de datos. Para ver más consulta Administra recursos de datos con Data Catalog.
Dataflow
Dataflow es un servicio de nube y modelo de programación para el procesamiento de macrodatos. Es compatible con el procesamiento de transmisión y por lotes. Puedes usar Dataflow para procesar los datos almacenados en Bigtable o almacenar el resultado de tu canalización de Dataflow. También puedes usar plantillas de Dataflow para importar y exportar los datos como Avro, Parquet o SequenceFiles.
Para comenzar, consulta Conector de Bigtable de Beam.
También puedes usar Bigtable como búsqueda de pares clave-valor para enriquecer los datos en una canalización. Para obtener una descripción general, consulta Enriquece la transmisión los datos en la nube. Para ver un instructivo, consulta Usa Apache Beam y Bigtable para enriquecer los datos en la nube.
Dataproc
Dataproc proporciona Apache Hadoop y productos relacionados como servicios administrados en la nube. Además, te permite ejecutar trabajos de Hadoop capaces de leer y escribir en Bigtable.
Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount
en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.
Vector Search de Vertex AI
Vertex AI Vector Search es una tecnología que pueden buscar entre miles de millones de elementos con similitudes semánticas o que estén relacionados semánticamente. Es útil para implementar motores de recomendaciones, chatbots y mensajes de texto. clasificación.
Puedes usar Bigtable para almacenar incorporaciones vectoriales, exportarlas a un índice de búsqueda vectorial y, luego, consultar el índice en busca de elementos similares. Para
un instructivo que muestra un flujo de trabajo de muestra, consulta Bigtable para
Exportación de búsquedas de vectores de Vertex AI
workflows-demos
repositorio de GitHub.
Macrodatos
En esta sección, se describen los productos de macrodatos con los que se integra Bigtable.
Apache Beam
Apache Beam es un modelo unificado para definir datos paralelos de transmisión y por lotes
de procesamiento de datos. El
Conector de Bigtable Beam (BigtableIO
)
te ayuda a realizar operaciones por lotes y de transmisión en Bigtable.
los datos en una canalización.
Si deseas ver un instructivo sobre cómo usar el conector de Bigtable Beam para implementar un de datos a Dataflow, consulta Procesa Bigtable flujo de cambios.
Apache Hadoop
Apache Hadoop es un framework que permite realizar un procesamiento distribuido de conjuntos de datos grandes entre clústeres de computadoras. Puedes usar Dataproc para crear un clúster de Hadoop y, luego, ejecutar trabajos de MapReduce capaces de leer y escribir en Bigtable.
Si quieres ver un ejemplo de un trabajo de Hadoop MapReduce que usa Bigtable, consulta el directorio /java/dataproc-wordcount
en el repositorio de GitHub GoogleCloudPlatform/cloud-bigtable-examples.
StreamSets Data Collector
StreamSets Data Collector es una aplicación de transmisión de datos que puedes configurar para escribir datos en Bigtable. Ofrece una biblioteca de Bigtable en su repositorio de GitHub, en streamsets/datacollector.
Bases de datos de grafos
En esta sección, se describen las bases de datos de grafos con las que se integra Bigtable.
HGraphDB
HGraphDB es una capa de cliente para usar Apache HBase o Bigtable como una base de datos de grafos. Además, implementa las interfaces de Apache TinkerPop 3.
Si necesitas más información para ejecutar HGraphDB compatible con Bigtable, consulta la documentación de HGraphDB.
JanusGraph
JanusGraph es una base de datos de gráficos escalable. Está optimizada para almacenar y consultar grafos que contienen cientos de miles de millones de vértices y bordes.
Si quieres obtener más información sobre cómo ejecutar JanusGraph con la asistencia de Bigtable, consulta Ejecuta JanusGraph con Bigtable o la documentación de JanusGraph.
Administración de la infraestructura
En esta sección, se describen las herramientas de administración de la infraestructura con las que se integra Bigtable.
Pivotal Cloud Foundry
Pivotal Cloud Foundry es una plataforma de desarrollo y de implementación de aplicaciones que ofrece la capacidad de vincular una aplicación a Bigtable.
Terraform
Terraform es una herramienta de código abierto que codifica las API en archivos de configuración declarativos. Estos archivos se pueden compartir entre los miembros del equipo, se pueden tratar como código, se pueden editar, revisar, o se puede crear versiones nuevas de ellos.
Para obtener más información sobre el uso de Bigtable con Terraform, consulta Instancia de Bigtable y Tabla de Bigtable en la documentación de Terraform.
Supervisión y bases de datos de series temporales
En esta sección, se describen las herramientas de supervisión y bases de datos de series temporales con las que se integra Bigtable.
Heroic
Heroic es un sistema de supervisión y una base de datos de serie temporal. Heroic puede usar Bigtable para almacenar sus datos.
Si deseas obtener más información sobre Heroic, consulta el repositorio de GitHub spotify/heroic y la documentación sobre cómo configurar Bigtable y cómo configurar métricas.
OpenTSDB
OpenTSDB es una base de datos de series temporales que puede usar Bigtable para almacenamiento. En la documentación de OpenTSDB, se proporciona información para ayudarte a comenzar.