Armazenamento, governança e desempenho corporativos para criar casos de uso de IA analíticos, operacionais e em tempo real escalonáveis em um lakehouse aberto unificado, entre nuvens e multimodal.
Recursos
As tabelas do Apache Iceberg, gerenciadas usando o catálogo REST do Iceberg do Lakehouse, oferecem interoperabilidade de leitura e gravação entre o BigQuery e o Serviço Gerenciado para Apache Spark do Google Cloud, bem como mecanismos OSS compatíveis com o Iceberg, como Spark, Trino e Flink, e agora com mecanismos de terceiros como Snowflake e Databricks (pré-lançamento). Isso ajuda você a conectar facilmente suas tabelas do Iceberg diretamente a mecanismos como o BigQuery e o Spark Gerenciado pelo Google para acelerar suas cargas de trabalho de IA.
Aproveite a interconexão e o armazenamento em cache entre nuvens (pré-lançamento) para ter acesso rápido e com baixa latência aos dados do S3 Iceberg. Execute o BigQuery, o Spark e o Gemini Enterprise com jobs de API de análise conversacional em dados da AWS com características de preço-desempenho comparáveis às soluções nativas de plataforma de dados. Além disso, a nova federação de catálogos do ambiente de execução do Lakehouse (pré-lançamento) une seu ecossistema de maneira integrada, permitindo que o BigQuery e o Spark Gerenciado pelo Google descubram e analisem dados corporativos no Snowflake, Databricks e AWS Glue.
A execução vetorizada aprimorada do BigQuery agora é o padrão para tabelas do catálogo REST do Lakehouse Iceberg, bem como tabelas do Iceberg e Parquet no catálogo do BigQuery. Transfira a manutenção de rotina do Iceberg, como compactação, clustering e coleta de lixo, diretamente para o Google Lakehouse. Novos recursos automatizados, incluindo gerenciamento de tabelas, particionamento, clustering e otimização baseada no histórico (GA para tabelas Iceberg no catálogo do BigQuery; pré-lançamento para o catálogo REST), aceleram a relação preço-desempenho sem sobrecarga manual.
Potencialize insights em tempo real com o Iceberg usando o streaming do BigQuery para ingestão de alta capacidade com latência de leitura zero. Crie pipelines de processamento complexos com transações de várias instruções e replicação de dados de alterações do BigQuery para tabelas do Iceberg (GA para o catálogo do BigQuery; pré-lançamento para o catálogo REST). Faça análises multimodais, vetoriais e de gráficos unindo dados estruturados e não estruturados usando BigQueryObjectRefs. Turbine as cargas de trabalho de ciência de dados do Spark com o Lightning Engine, que oferece um desempenho até 4,5 vezes mais rápido.
Capacite agentes de IA com dados transacionais em tempo real. Transmita dados operacionais do Spanner, AlloyDB e Cloud SQL para o BigQuery e tabelas gerenciadas do Iceberg para análise instantânea e retorne esses insights analíticos diretamente para o AlloyDB ou Spanner para disponibilizá-los com latência de alta QPS e menos de um milissegundo. Tenha governança unificada com linhagem, criação de perfis e qualidade de dados com a integração do Knowledge Catalog (antigo Dataplex). Mapeie dados transacionais, não estruturados e do Iceberg para sua lógica de negócios, dando aos seus agentes o contexto profundo de que precisam para fornecer resultados precisos, confiáveis e totalmente governados.
Modernize para uma arquitetura de lakehouse aberta e unificada
Modernize sua base de dados com o Lakehouse do Google. Migre o Hadoop legado para o Cloud Storage sem servidor e unifique os dados entre nuvens consultando o Iceberg e o Delta Lake diretamente no BigQuery. O catálogo REST do Lakehouse Iceberg elimina silos, oferecendo um ambiente de execução interoperável para Spark, Trino e Flink. Com o suporte ao catálogo do Hive, você pode modernizar facilmente as cargas de trabalho do Hadoop para o Iceberg.
Modernize para uma arquitetura de lakehouse aberta e unificada
Modernize sua base de dados com o Lakehouse do Google. Migre o Hadoop legado para o Cloud Storage sem servidor e unifique os dados entre nuvens consultando o Iceberg e o Delta Lake diretamente no BigQuery. O catálogo REST do Lakehouse Iceberg elimina silos, oferecendo um ambiente de execução interoperável para Spark, Trino e Flink. Com o suporte ao catálogo do Hive, você pode modernizar facilmente as cargas de trabalho do Hadoop para o Iceberg.
Compartilhamento contínuo de leitura/gravação entre o BigQuery e os mecanismos de OSS
Traga seus pipelines Iceberg e leia ou grave nessas tabelas continuamente usando o BigQuery ou o Spark Gerenciado, ao mesmo tempo em que moderniza com facilidade usando os recursos avançados do BigQuery. Aprimore a ciência de dados executando o ETL do Spark e a IA do BigQuery nas mesmas tabelas do Iceberg sem movimentação de dados. Crie agentes de análise de conversação no BigQuery que funcionem com seus dados no S3.
Compartilhamento contínuo de leitura/gravação entre o BigQuery e os mecanismos de OSS
Traga seus pipelines Iceberg e leia ou grave nessas tabelas continuamente usando o BigQuery ou o Spark Gerenciado, ao mesmo tempo em que moderniza com facilidade usando os recursos avançados do BigQuery. Aprimore a ciência de dados executando o ETL do Spark e a IA do BigQuery nas mesmas tabelas do Iceberg sem movimentação de dados. Crie agentes de análise de conversação no BigQuery que funcionem com seus dados no S3.
Análise de dados multimodais e fluxos de trabalho de IA acelerados
Potencialize a análise multimodal com o BigQuery AI combinando tabelas do Iceberg estruturadas com dados não estruturados usando o BigQuery ObjectRefs para inferência de SQL único. Treine os modelos da plataforma de agentes do Gemini Enterprise usando a função de viagem no tempo para depurar desvios nos dados. Faça a federação de catálogos REST globais em uma malha de dados unificada, analise registros em grande escala de forma econômica e crie modelos diretamente em notebooks integrados para acelerar seus fluxos de trabalho de IA.
Análise de dados multimodais e fluxos de trabalho de IA acelerados
Potencialize a análise multimodal com o BigQuery AI combinando tabelas do Iceberg estruturadas com dados não estruturados usando o BigQuery ObjectRefs para inferência de SQL único. Treine os modelos da plataforma de agentes do Gemini Enterprise usando a função de viagem no tempo para depurar desvios nos dados. Faça a federação de catálogos REST globais em uma malha de dados unificada, analise registros em grande escala de forma econômica e crie modelos diretamente em notebooks integrados para acelerar seus fluxos de trabalho de IA.
Potencialize cargas de trabalho de ciência de dados em ambientes de desenvolvedores
Tenha uma experiência perfeita com o Spark. Execute SQL, Spark e Python em uma única cópia de dados do Iceberg usando IDEs unificados. A nova extensão Antigravity VS Code atua como um parceiro de IA para gerar pipelines, depurar código e automatizar CI/CD com base em linguagem natural. Além disso, nosso Lightning Engine vetorizado acelera a execução do Spark em até 4,5 vezes, sem precisar de nenhuma mudança no código.
Potencialize cargas de trabalho de ciência de dados em ambientes de desenvolvedores
Tenha uma experiência perfeita com o Spark. Execute SQL, Spark e Python em uma única cópia de dados do Iceberg usando IDEs unificados. A nova extensão Antigravity VS Code atua como um parceiro de IA para gerar pipelines, depurar código e automatizar CI/CD com base em linguagem natural. Além disso, nosso Lightning Engine vetorizado acelera a execução do Spark em até 4,5 vezes, sem precisar de nenhuma mudança no código.
Otimização de desempenho com o BigQuery
Aproveite a escala do BigQuery sem perder a flexibilidade do armazenamento. Execute transações de várias instruções no BigQuery para atualizar várias tabelas do Iceberg como uma única unidade atômica, garantindo a consistência em nível financeiro. Use o ambiente de execução avançado e o suporte a particionamento do BigQuery para o Iceberg para criar tabelas particionadas ou em cluster que aproveitam a remoção de blocos para execução de consultas de alta velocidade e econômica.
Otimização de desempenho com o BigQuery
Aproveite a escala do BigQuery sem perder a flexibilidade do armazenamento. Execute transações de várias instruções no BigQuery para atualizar várias tabelas do Iceberg como uma única unidade atômica, garantindo a consistência em nível financeiro. Use o ambiente de execução avançado e o suporte a particionamento do BigQuery para o Iceberg para criar tabelas particionadas ou em cluster que aproveitam a remoção de blocos para execução de consultas de alta velocidade e econômica.
Transacional e analítico combinados para IA agêntica
Impulsione agentes de IA orientados a eventos unificando seus dados transacionais e analíticos. Automatize a replicação contínua de CDC do Spanner e do AlloyDB diretamente nas tabelas do Iceberg do Lakehouse. Depois use consultas contínuas em SQL para monitorar esses dados de streaming, executar inferências de IA instantaneamente e acionar ações downstream, oferecendo inteligência em tempo real para suas cargas de trabalho operacionais mais críticas.
Transacional e analítico combinados para IA agêntica
Impulsione agentes de IA orientados a eventos unificando seus dados transacionais e analíticos. Automatize a replicação contínua de CDC do Spanner e do AlloyDB diretamente nas tabelas do Iceberg do Lakehouse. Depois use consultas contínuas em SQL para monitorar esses dados de streaming, executar inferências de IA instantaneamente e acionar ações downstream, oferecendo inteligência em tempo real para suas cargas de trabalho operacionais mais críticas.
Governe seu lakehouse com o Knowledge Catalog
O Knowledge Catalog fornece uma camada de governança unificada ao descobrir automaticamente tabelas do Iceberg no Cloud Storage e registrar os metadados delas diretamente no catálogo de ambiente de execução do lakehouse. Com essa integração, é possível definir políticas de segurança centralizadas que garantem um controle de acesso consistente em nível de linha e coluna no BigQuery e em mecanismos de processamento de código aberto.
Governe seu lakehouse com o Knowledge Catalog
O Knowledge Catalog fornece uma camada de governança unificada ao descobrir automaticamente tabelas do Iceberg no Cloud Storage e registrar os metadados delas diretamente no catálogo de ambiente de execução do lakehouse. Com essa integração, é possível definir políticas de segurança centralizadas que garantem um controle de acesso consistente em nível de linha e coluna no BigQuery e em mecanismos de processamento de código aberto.
Preços
| Como funcionam os preços do lakehouse (BigLake) | Os preços do Lakehour (BigLake) são baseados no gerenciamento de tabelas, no armazenamento de metadados e no acesso a metadados | |
|---|---|---|
| Serviços e uso | Descrição | Preço (USD) |
Gerenciamento de tabelas do Lakehouse (BigLake) | Recursos de computação de gerenciamento de tabelas do Lakehouse (BigLake) usados para otimização automática de armazenamento de tabelas. | A partir de US$ 0,12 por DCU/hora |
Armazenamento de metadados do Lakehouse (BigLake) | O Lakehouse para Apache Iceberg metastore (catálogo do ambiente de execução do Lakehouse) cobra pelos metadados armazenados. O nível sem custo financeiro inclui 1 GiB de armazenamento de metadados por mês. | A partir de US$ 0,04 mensais por GiB |
Acesso aos metadados do lakehouse (BigLake) | Operações de classe A: cobranças de acesso a metadados do Lakehouse (BigLake) para operações de gravação, atualização, listagem, criação e configuração com um nível sem custo financeiro de 5.000 operações por mês incluído. | A partir de US$ 6,00 por milhão de operações |
Operações de classe B: cobranças de acesso a metadados do Lakehouse (BigLake) para operações de leitura, obtenção e exclusão com um nível sem custo financeiro de 50.000 operações por mês incluído. | A partir de US$ 0,90 por milhão de operações | |
Como funcionam os preços do lakehouse (BigLake)
Os preços do Lakehour (BigLake) são baseados no gerenciamento de tabelas, no armazenamento de metadados e no acesso a metadados
Gerenciamento de tabelas do Lakehouse (BigLake)
Recursos de computação de gerenciamento de tabelas do Lakehouse (BigLake) usados para otimização automática de armazenamento de tabelas.
Starting at
US$ 0,12
por DCU/hora
Armazenamento de metadados do Lakehouse (BigLake)
O Lakehouse para Apache Iceberg metastore (catálogo do ambiente de execução do Lakehouse) cobra pelos metadados armazenados. O nível sem custo financeiro inclui 1 GiB de armazenamento de metadados por mês.
Starting at
US$ 0,04
mensais por GiB
Acesso aos metadados do lakehouse (BigLake)
Operações de classe A: cobranças de acesso a metadados do Lakehouse (BigLake) para operações de gravação, atualização, listagem, criação e configuração com um nível sem custo financeiro de 5.000 operações por mês incluído.
Starting at
US$ 6,00
por milhão de operações
Operações de classe B: cobranças de acesso a metadados do Lakehouse (BigLake) para operações de leitura, obtenção e exclusão com um nível sem custo financeiro de 50.000 operações por mês incluído.
Starting at
US$ 0,90
por milhão de operações