Archiviazione, governance e prestazioni di livello aziendale per creare casi d'uso scalabili di AI analitica, operativa e in tempo reale su un lakehouse aperto unificato, cross-cloud e multimodale.
Funzionalità
Le tabelle Apache Iceberg, gestite utilizzando il catalogo REST Iceberg di Lakehouse, forniscono interoperabilità di lettura e scrittura tra BigQuery e Google Cloud Managed Service for Apache Spark, nonché motori OSS compatibili con Iceberg come Spark, Trino e Flink e ora con motori di terze parti come Snowflake e Databricks (anteprima). Questo ti aiuta a collegare facilmente le tue tabelle Iceberg direttamente a motori come BigQuery e Spark gestito da Google, in modo da poter accelerare i tuoi workload di AI.
Sfrutta l'interconnessione e la memorizzazione nella cache tra cloud (anteprima) per ottenere un accesso rapido e a bassa latenza ai dati Iceberg S3. Esegui BigQuery, Spark e Gemini Enterprise tramite job API di analisi conversazionale su dati AWS con caratteristiche di rapporto prezzo/prestazioni paragonabili alle soluzioni di piattaforme di dati native. Inoltre, la nuova federazione del catalogo di runtime Lakehouse (anteprima) unisce perfettamente il tuo ecosistema, consentendo a BigQuery e a Google Managed Spark di scoprire e analizzare i dati aziendali in Snowflake, Databricks e AWS Glue.
L'esecuzione vettorizzata avanzata di BigQuery ora è l'impostazione predefinita per le tabelle del catalogo REST Lakehouse Iceberg, nonché per le tabelle Iceberg e Parquet nel catalogo BigQuery. Delega la manutenzione di routine di Iceberg, come la compattazione, il clustering e la garbage collection, direttamente a Google Lakehouse. Le nuove funzionalità automatizzate, tra cui gestione delle tabelle, partizionamento, clustering e ottimizzazione basata sulla cronologia (GA per le tabelle Iceberg nel catalogo BigQuery; anteprima per il catalogo REST), accelerano il rapporto prezzo-prestazioni senza alcun overhead manuale.
Potenzia gli insight in tempo reale con Iceberg utilizzando lo streaming di BigQuery per l'importazione a throughput elevato con latenza di lettura pari a zero. Crea pipeline di elaborazione complesse con transazioni multi-istruzione e replica dei dati di modifica di BigQuery nelle tabelle Iceberg (GA per il catalogo BigQuery; anteprima per il catalogo REST). Sblocca l'analisi multimodale, vettoriale e dei grafici unendo dati strutturati e non strutturati utilizzando BigQueryObjectRefs. Potenzia i workload di data science Spark con Lightning Engine con prestazioni fino a 4,5 volte più veloci.
Potenzia gli agenti di AI con dati transazionali in tempo reale. Trasmetti i dati operativi da Spanner, AlloyDB e Cloud SQL in flussi verso BigQuery e tabelle Iceberg gestite per un'analisi istantanea e reinserisci questi insight analitici direttamente in AlloyDB o Spanner per fornirli con una latenza inferiore al millisecondo e QPS elevato. Ottieni una governance unificata con derivazione, profilazione e qualità dei dati tramite l'integrazione di Knowledge Catalog (in precedenza Dataplex). Mappa i dati transazionali, non strutturati e Iceberg alla tua logica di business, fornendo ai tuoi agenti il contesto approfondito di cui hanno bisogno per fornire risultati accurati, affidabili e completamente governati.
Modernizza passando a un'architettura lakehouse aperta e unificata
Modernizza la tua base di dati con il lakehouse di Google. Passa da Hadoop legacy a Cloud Storage serverless e unifica i dati tra cloud eseguendo query su Iceberg e Delta Lake direttamente in BigQuery. Il catalogo REST Iceberg di Lakehouse elimina i silos, offrendo un runtime interoperabile per Spark, Trino e Flink. Grazie al supporto del catalogo Hive, puoi modernizzare facilmente i workload Hadoop in Iceberg.
Modernizza passando a un'architettura lakehouse aperta e unificata
Modernizza la tua base di dati con il lakehouse di Google. Passa da Hadoop legacy a Cloud Storage serverless e unifica i dati tra cloud eseguendo query su Iceberg e Delta Lake direttamente in BigQuery. Il catalogo REST Iceberg di Lakehouse elimina i silos, offrendo un runtime interoperabile per Spark, Trino e Flink. Grazie al supporto del catalogo Hive, puoi modernizzare facilmente i workload Hadoop in Iceberg.
Condivisione in lettura/scrittura senza interruzioni tra BigQuery e motori OSS
Importa le pipeline Iceberg esistenti e leggi o scrivi senza problemi in queste tabelle utilizzando BigQuery o Spark gestito, modernizzando facilmente con funzionalità avanzate di BigQuery. Potenzia la data science eseguendo Spark ETL e BigQuery AI esattamente sulle stesse tabelle Iceberg senza spostare i dati. Crea agenti di analisi conversazionale in BigQuery che funzionano con i tuoi dati in S3.
Condivisione in lettura/scrittura senza interruzioni tra BigQuery e motori OSS
Importa le pipeline Iceberg esistenti e leggi o scrivi senza problemi in queste tabelle utilizzando BigQuery o Spark gestito, modernizzando facilmente con funzionalità avanzate di BigQuery. Potenzia la data science eseguendo Spark ETL e BigQuery AI esattamente sulle stesse tabelle Iceberg senza spostare i dati. Crea agenti di analisi conversazionale in BigQuery che funzionano con i tuoi dati in S3.
Analisi dei dati multimodali e workflow di AI accelerati
Potenzia l'analisi multimodale con BigQuery AI combinando tabelle Iceberg strutturate con dati non strutturati utilizzando BigQuery ObjectRefs per l'inferenza SQL singola. Addestra i modelli della piattaforma agentica Gemini Enterprise utilizzando il time-travel per eseguire il debug della deviazione dei dati. Federare cataloghi REST globali in un mesh di dati unificato, analizzare log su larga scala a costi contenuti e creare modelli direttamente in blocchi note integrati per accelerare i workflow di AI.
Analisi dei dati multimodali e workflow di AI accelerati
Potenzia l'analisi multimodale con BigQuery AI combinando tabelle Iceberg strutturate con dati non strutturati utilizzando BigQuery ObjectRefs per l'inferenza SQL singola. Addestra i modelli della piattaforma agentica Gemini Enterprise utilizzando il time-travel per eseguire il debug della deviazione dei dati. Federare cataloghi REST globali in un mesh di dati unificato, analizzare log su larga scala a costi contenuti e creare modelli direttamente in blocchi note integrati per accelerare i workflow di AI.
Potenzia i workload di data science in tutti gli ambienti di sviluppo
Sblocca un'esperienza Spark senza interruzioni. Esegui SQL, Spark e Python su una singola copia di dati Iceberg utilizzando IDE unificati. La nuova estensione Antigravity VS Code funge da partner AI per generare pipeline, eseguire il debug del codice e automatizzare la CI/CD dal linguaggio naturale. Inoltre, il nostro motore vettorializzato Lightning Engine accelera l'esecuzione di Spark fino a 4,5 volte, senza richiedere modifiche al codice.
Potenzia i workload di data science in tutti gli ambienti di sviluppo
Sblocca un'esperienza Spark senza interruzioni. Esegui SQL, Spark e Python su una singola copia di dati Iceberg utilizzando IDE unificati. La nuova estensione Antigravity VS Code funge da partner AI per generare pipeline, eseguire il debug del codice e automatizzare la CI/CD dal linguaggio naturale. Inoltre, il nostro motore vettorializzato Lightning Engine accelera l'esecuzione di Spark fino a 4,5 volte, senza richiedere modifiche al codice.
Ottimizzazione delle prestazioni con BigQuery
Sfrutta la scalabilità di BigQuery mantenendo uno spazio di archiviazione flessibile. Esegui transazioni con più istruzioni in BigQuery per aggiornare più tabelle Iceberg come singola unità atomica, garantendo una coerenza di livello finanziario. Utilizza il runtime avanzato e il supporto per il partizionamento di BigQuery per Iceberg per creare tabelle partizionate/clusterizzate che sfruttano la pruning dei blocchi per un'esecuzione di query ad alta velocità ed economicamente vantaggiosa.
Ottimizzazione delle prestazioni con BigQuery
Sfrutta la scalabilità di BigQuery mantenendo uno spazio di archiviazione flessibile. Esegui transazioni con più istruzioni in BigQuery per aggiornare più tabelle Iceberg come singola unità atomica, garantendo una coerenza di livello finanziario. Utilizza il runtime avanzato e il supporto per il partizionamento di BigQuery per Iceberg per creare tabelle partizionate/clusterizzate che sfruttano la pruning dei blocchi per un'esecuzione di query ad alta velocità ed economicamente vantaggiosa.
Combinazione di transazionale e analitico per l'AI agentica
Alimenta gli agenti AI basati su eventi unificando i tuoi dati transazionali e analitici. Automatizza la replica CDC continua da Spanner e AlloyDB direttamente nelle tabelle Iceberg Lakehouse. Quindi, utilizza query continue SQL per monitorare questi dati in streaming, eseguire immediatamente l'inferenza AI e attivare azioni downstream, fornendo intelligence in tempo reale per i workload operativi più critici.
Combinazione di transazionale e analitico per l'AI agentica
Alimenta gli agenti AI basati su eventi unificando i tuoi dati transazionali e analitici. Automatizza la replica CDC continua da Spanner e AlloyDB direttamente nelle tabelle Iceberg Lakehouse. Quindi, utilizza query continue SQL per monitorare questi dati in streaming, eseguire immediatamente l'inferenza AI e attivare azioni downstream, fornendo intelligence in tempo reale per i workload operativi più critici.
Governa la tua lakehouse con Knowledge Catalog
Knowledge Catalog fornisce uno strato di governance unificato rilevando automaticamente le tabelle Iceberg in Cloud Storage e registrando i relativi metadati direttamente nel catalogo di runtime Lakehouse. Questa integrazione ti consente di definire policy di sicurezza centralizzate che garantiscono un controllo dell'accesso a livello di riga e di colonna coerente sia in BigQuery che nei motori di elaborazione open source.
Governa la tua lakehouse con Knowledge Catalog
Knowledge Catalog fornisce uno strato di governance unificato rilevando automaticamente le tabelle Iceberg in Cloud Storage e registrando i relativi metadati direttamente nel catalogo di runtime Lakehouse. Questa integrazione ti consente di definire policy di sicurezza centralizzate che garantiscono un controllo dell'accesso a livello di riga e di colonna coerente sia in BigQuery che nei motori di elaborazione open source.
Prezzi
| Come funzionano i prezzi di Lakehouse (BigLake) | I prezzi di Lakehouse (BigLake) si basano sulla gestione dei tabelle, sull'archiviazione dei metadati e sull'accesso ai metadati | |
|---|---|---|
| Servizi e utilizzo | Descrizione | Prezzo (USD) |
Gestione delle tabelle lakehouse (BigLake) | Risorse di calcolo per la gestione delle tabelle Lakehouse (BigLake) utilizzate per l'ottimizzazione automatica dello spazio di archiviazione delle tabelle. | A partire da $ 0,12 per DCU/ora |
Archiviazione dei metadati Lakehouse (BigLake) | Lakehouse for Apache Iceberg metastore (catalogo runtime lakehouse) addebita i metadati archiviati. Il livello senza costi include 1 GiB di spazio di archiviazione dei metadati al mese. | A partire da 0,04 $ per GiB al mese |
Accesso ai metadati lakehouse (BigLake) | Operazioni di classe A: addebiti per l'accesso ai metadati di Lakehouse (BigLake) per le operazioni di scrittura, aggiornamento, elenco, creazione e configurazione con un livello senza costi di 5000 operazioni al mese incluso. | A partire da 6,00 $ per milione di operazioni |
Operazioni di classe B: costi di accesso ai metadati di Lakehouse (BigLake) per operazioni di lettura, recupero ed eliminazione con un livello senza costi di 50.000 operazioni al mese incluso. | A partire da $ 0,90 per milione di operazioni | |
Come funzionano i prezzi di Lakehouse (BigLake)
I prezzi di Lakehouse (BigLake) si basano sulla gestione dei tabelle, sull'archiviazione dei metadati e sull'accesso ai metadati
Gestione delle tabelle lakehouse (BigLake)
Risorse di calcolo per la gestione delle tabelle Lakehouse (BigLake) utilizzate per l'ottimizzazione automatica dello spazio di archiviazione delle tabelle.
Starting at
$ 0,12
per DCU/ora
Archiviazione dei metadati Lakehouse (BigLake)
Lakehouse for Apache Iceberg metastore (catalogo runtime lakehouse) addebita i metadati archiviati. Il livello senza costi include 1 GiB di spazio di archiviazione dei metadati al mese.
Starting at
0,04 $
per GiB al mese
Accesso ai metadati lakehouse (BigLake)
Operazioni di classe A: addebiti per l'accesso ai metadati di Lakehouse (BigLake) per le operazioni di scrittura, aggiornamento, elenco, creazione e configurazione con un livello senza costi di 5000 operazioni al mese incluso.
Starting at
6,00 $
per milione di operazioni
Operazioni di classe B: costi di accesso ai metadati di Lakehouse (BigLake) per operazioni di lettura, recupero ed eliminazione con un livello senza costi di 50.000 operazioni al mese incluso.
Starting at
$ 0,90
per milione di operazioni