Almacenamiento, gobernanza y rendimiento de nivel empresarial para crear casos prácticos de IA escalables, analíticos, operativos y en tiempo real en un lakehouse abierto, unificado, multimodal y multinube.
Características
Las tablas de Apache Iceberg, gestionadas mediante el catálogo REST de Lakehouse Iceberg, ofrecen interoperabilidad de lectura y escritura entre BigQuery y Google Cloud Managed Service for Apache Spark, así como con motores de software libre compatibles con Iceberg, como Spark, Trino y Flink, y ahora también con motores de terceros como Snowflake y Databricks (versión preliminar). Esto te ayuda a conectar fácilmente tus tablas de Iceberg directamente a motores como BigQuery y Spark gestionado por Google para que puedas acelerar tus cargas de trabajo de IA.
Aprovecha la interconexión y el almacenamiento en caché entre nubes (versión preliminar) para acceder a los datos de S3 Iceberg de forma rápida y con baja latencia. Ejecuta BigQuery, Spark y Gemini Enterprise a través de tareas de la API de analíticas conversacionales en datos de AWS con características de precio-rendimiento comparables a las soluciones de plataformas de datos nativas. Además, la nueva federación de catálogos de Lakehouse Runtime (versión preliminar) unifica tu ecosistema a la perfección, lo que permite que BigQuery y Google Managed Spark descubran y analicen datos empresariales en Snowflake, Databricks y AWS Glue.
La ejecución vectorizada mejorada de BigQuery ahora está habilitada de forma predeterminada para las tablas del catálogo REST de Iceberg de Lakehouse, así como para las tablas de Iceberg y Parquet del catálogo de BigQuery. Delega el mantenimiento rutinario de Iceberg, como la compactación, el agrupamiento en clústeres y la recolección de elementos no utilizados, directamente en Google Lakehouse. Las nuevas funciones automatizadas, como la gestión de tablas, la partición, la agrupación en clústeres y la optimización basada en el historial (disponibles de forma general para las tablas de Iceberg en el catálogo de BigQuery y en versión preliminar para el catálogo de REST), mejoran la relación precio-rendimiento sin necesidad de intervención manual.
Potencia las estadísticas en tiempo real con Iceberg usando la transmisión de BigQuery para la ingestión de alto rendimiento con latencia de lectura cero. Crea flujos de procesamiento complejos con transacciones de varias sentencias y replicación de datos de cambio de BigQuery en tablas de Iceberg (disponibilidad general para el catálogo de BigQuery; vista previa para el catálogo de REST). Aprovecha las analíticas multimodales, vectoriales y de grafos uniendo datos estructurados y no estructurados con BigQueryObjectRefs. Potencia las cargas de trabajo de ciencia de datos de Spark con Lightning Engine y consigue un rendimiento hasta 4,5 veces más rápido.
Potencia los agentes de IA con datos transaccionales en tiempo real. Transmite datos operativos desde Spanner, AlloyDB y Cloud SQL a BigQuery y a tablas de Iceberg gestionadas para analizarlos al instante. Además, puedes enviar esos datos analíticos directamente a AlloyDB o Spanner para servirlos con una latencia inferior a un milisegundo y un alto número de consultas por segundo. Consigue un gobierno unificado con linaje, elaboración de perfiles y calidad de los datos mediante la integración de Knowledge Catalog (anteriormente, Dataplex). Asigna datos transaccionales, no estructurados y de iceberg a tu lógica empresarial para que tus agentes tengan el contexto detallado que necesitan para ofrecer resultados precisos, fiables y totalmente controlados.
Cómo funciona
Moderniza tu arquitectura para que sea un lakehouse abierto y unificado
Moderniza tu base de datos con Lakehouse de Google. Migra tu Hadoop antiguo a Cloud Storage sin servidor y unifica los datos entre nubes consultando Iceberg y Delta Lake directamente en BigQuery. El catálogo REST de Iceberg de Lakehouse elimina los silos y ofrece un tiempo de ejecución interoperable para Spark, Trino y Flink. Gracias a la compatibilidad con el catálogo de Hive, puedes modernizar fácilmente las cargas de trabajo de Hadoop a Iceberg.
Moderniza tu arquitectura para que sea un lakehouse abierto y unificado
Moderniza tu base de datos con Lakehouse de Google. Migra tu Hadoop antiguo a Cloud Storage sin servidor y unifica los datos entre nubes consultando Iceberg y Delta Lake directamente en BigQuery. El catálogo REST de Iceberg de Lakehouse elimina los silos y ofrece un tiempo de ejecución interoperable para Spark, Trino y Flink. Gracias a la compatibilidad con el catálogo de Hive, puedes modernizar fácilmente las cargas de trabajo de Hadoop a Iceberg.
Uso compartido de lectura y escritura fluido entre BigQuery y los motores de OSS
Trae tus pipelines de Iceberg y lee o escribe en esas tablas sin problemas usando BigQuery o Spark gestionado, mientras modernizas fácilmente con las funciones avanzadas de BigQuery. Impulsa la ciencia de datos ejecutando ETL de Spark y la IA de BigQuery en las mismas tablas de Iceberg sin mover los datos. Crea agentes de analíticas conversacionales en BigQuery que funcionen con tus datos en S3.
Uso compartido de lectura y escritura fluido entre BigQuery y los motores de OSS
Trae tus pipelines de Iceberg y lee o escribe en esas tablas sin problemas usando BigQuery o Spark gestionado, mientras modernizas fácilmente con las funciones avanzadas de BigQuery. Impulsa la ciencia de datos ejecutando ETL de Spark y la IA de BigQuery en las mismas tablas de Iceberg sin mover los datos. Crea agentes de analíticas conversacionales en BigQuery que funcionen con tus datos en S3.
Análisis de datos multimodales y flujos de trabajo de IA acelerados
Potencia el análisis multimodal con BigQuery AI combinando tablas estructuradas de Iceberg con datos no estructurados mediante ObjectRefs de BigQuery para la inferencia de SQL único. Entrena modelos de la plataforma de agentes de Gemini Enterprise usando la función de retroceso en el tiempo para depurar la deriva de datos. Federa catálogos de REST globales en una malla de datos unificada, analiza registros a gran escala de forma asequible y crea modelos directamente en notebooks integrados para acelerar tus flujos de trabajo de IA.
Análisis de datos multimodales y flujos de trabajo de IA acelerados
Potencia el análisis multimodal con BigQuery AI combinando tablas estructuradas de Iceberg con datos no estructurados mediante ObjectRefs de BigQuery para la inferencia de SQL único. Entrena modelos de la plataforma de agentes de Gemini Enterprise usando la función de retroceso en el tiempo para depurar la deriva de datos. Federa catálogos de REST globales en una malla de datos unificada, analiza registros a gran escala de forma asequible y crea modelos directamente en notebooks integrados para acelerar tus flujos de trabajo de IA.
Impulsa las cargas de trabajo de ciencia de datos en todos los entornos de desarrollo
Disfruta de una experiencia fluida con Spark. Ejecuta SQL, Spark y Python en una sola copia de datos de Iceberg usando IDEs unificados. La nueva extensión Antigravity para VS Code actúa como un partner de IA para generar flujos de procesamiento, depurar código y automatizar la CI/CD a partir de lenguaje natural. Además, nuestro motor vectorizado Lightning Engine acelera la ejecución de Spark hasta 4,5 veces sin necesidad de cambiar el código.
Impulsa las cargas de trabajo de ciencia de datos en todos los entornos de desarrollo
Disfruta de una experiencia fluida con Spark. Ejecuta SQL, Spark y Python en una sola copia de datos de Iceberg usando IDEs unificados. La nueva extensión Antigravity para VS Code actúa como un partner de IA para generar flujos de procesamiento, depurar código y automatizar la CI/CD a partir de lenguaje natural. Además, nuestro motor vectorizado Lightning Engine acelera la ejecución de Spark hasta 4,5 veces sin necesidad de cambiar el código.
Optimización del rendimiento con BigQuery
Aprovecha la escala de BigQuery sin renunciar a la flexibilidad del almacenamiento. Ejecuta transacciones de varias instrucciones en BigQuery para actualizar varias tablas de Iceberg como una sola unidad atómica, lo que garantiza una coherencia de nivel financiero. Usa el tiempo de ejecución avanzado de BigQuery y la compatibilidad con el particionamiento de Iceberg para crear tablas particionadas o agrupadas que aprovechen la eliminación de bloques para ejecutar consultas de forma rápida y rentable.
Optimización del rendimiento con BigQuery
Aprovecha la escala de BigQuery sin renunciar a la flexibilidad del almacenamiento. Ejecuta transacciones de varias instrucciones en BigQuery para actualizar varias tablas de Iceberg como una sola unidad atómica, lo que garantiza una coherencia de nivel financiero. Usa el tiempo de ejecución avanzado de BigQuery y la compatibilidad con el particionamiento de Iceberg para crear tablas particionadas o agrupadas que aprovechen la eliminación de bloques para ejecutar consultas de forma rápida y rentable.
Combinación de transacciones y analíticas para la IA de agentes
Impulsa los agentes de IA basados en eventos unificando tus datos transaccionales y analíticos. Automatiza la replicación continua de CDC desde Spanner y AlloyDB directamente en las tablas de Iceberg de Lakehouse. Después, usa consultas continuas de SQL para monitorizar estos datos de streaming, ejecutar inferencias de IA al instante y activar acciones posteriores, lo que te permitirá obtener información valiosa en tiempo real para tus cargas de trabajo operativas más importantes.
Combinación de transacciones y analíticas para la IA de agentes
Impulsa los agentes de IA basados en eventos unificando tus datos transaccionales y analíticos. Automatiza la replicación continua de CDC desde Spanner y AlloyDB directamente en las tablas de Iceberg de Lakehouse. Después, usa consultas continuas de SQL para monitorizar estos datos de streaming, ejecutar inferencias de IA al instante y activar acciones posteriores, lo que te permitirá obtener información valiosa en tiempo real para tus cargas de trabajo operativas más importantes.
Gobierna tu lakehouse con Knowledge Catalog
Knowledge Catalog proporciona una capa de gobernanza unificada descubriendo automáticamente las tablas de Iceberg en Cloud Storage y registrando sus metadatos directamente en el catálogo de tiempo de ejecución de Lakehouse. Esta integración te permite definir políticas de seguridad centralizadas que garanticen un control de acceso coherente a nivel de fila y de columna tanto en BigQuery como en los motores de procesamiento de código abierto.
Gobierna tu lakehouse con Knowledge Catalog
Knowledge Catalog proporciona una capa de gobernanza unificada descubriendo automáticamente las tablas de Iceberg en Cloud Storage y registrando sus metadatos directamente en el catálogo de tiempo de ejecución de Lakehouse. Esta integración te permite definir políticas de seguridad centralizadas que garanticen un control de acceso coherente a nivel de fila y de columna tanto en BigQuery como en los motores de procesamiento de código abierto.
Precios
| Cómo funcionan los precios de Lakehouse (BigLake) | Los precios de Lakehouse (BigLake) se basan en la gestión de tablas, el almacenamiento de metadatos y el acceso a metadatos | |
|---|---|---|
| Servicios y uso | Descripción | Precio (USD) |
Gestión de tablas de Lakehouse (BigLake) | Recursos de computación de gestión de tablas de Lakehouse (BigLake) utilizados para la optimización automática del almacenamiento de tablas. | Desde 0,12 USD por DCU por hora |
Almacenamiento de metadatos de Lakehouse (BigLake) | Metastore de Lakehouse for Apache Iceberg (catálogo de tiempo de ejecución de Lakehouse) aplica cargos por los metadatos almacenados. El nivel sin coste económico incluye 1 GiB de almacenamiento de metadatos al mes. | Desde 0,04 USD por GiB al mes |
Acceso a metadatos de Lakehouse (BigLake) | Operaciones de clase A: cargos por acceso a metadatos de BigLake para operaciones de escritura, actualización, listado, creación y configuración, con un nivel sin coste económico de 5000 operaciones al mes incluido. | Desde 6,00 USD por millón de operaciones |
Operaciones de clase B: cargos por acceso a metadatos de BigLake para operaciones de lectura, obtención y eliminación, con un nivel sin coste económico de 50.000 operaciones al mes incluido. | Desde 0,90 USD por millón de operaciones | |
Cómo funcionan los precios de Lakehouse (BigLake)
Los precios de Lakehouse (BigLake) se basan en la gestión de tablas, el almacenamiento de metadatos y el acceso a metadatos
Gestión de tablas de Lakehouse (BigLake)
Recursos de computación de gestión de tablas de Lakehouse (BigLake) utilizados para la optimización automática del almacenamiento de tablas.
Starting at
0,12 USD
por DCU por hora
Almacenamiento de metadatos de Lakehouse (BigLake)
Metastore de Lakehouse for Apache Iceberg (catálogo de tiempo de ejecución de Lakehouse) aplica cargos por los metadatos almacenados. El nivel sin coste económico incluye 1 GiB de almacenamiento de metadatos al mes.
Starting at
0,04 USD
por GiB al mes
Acceso a metadatos de Lakehouse (BigLake)
Operaciones de clase A: cargos por acceso a metadatos de BigLake para operaciones de escritura, actualización, listado, creación y configuración, con un nivel sin coste económico de 5000 operaciones al mes incluido.
Starting at
6,00 USD
por millón de operaciones
Operaciones de clase B: cargos por acceso a metadatos de BigLake para operaciones de lectura, obtención y eliminación, con un nivel sin coste económico de 50.000 operaciones al mes incluido.
Starting at
0,90 USD
por millón de operaciones