Die Zukunft des Data Lakehouse: offen und interoperabel für das Zeitalter der KI-Agenten. Blog lesen
Speicher, Governance und Leistung auf Unternehmensebene, um skalierbare analytische, operative und KI-Anwendungsfälle in Echtzeit auf einem einheitlichen, cloudübergreifenden und multimodalen offenen Lakehouse zu entwickeln.
Features
Apache Iceberg-Tabellen, die mit dem Lakehouse Iceberg REST Catalog verwaltet werden, ermöglichen die Interoperabilität von Lese- und Schreibvorgängen zwischen BigQuery und Google Cloud Managed Service for Apache Spark sowie Iceberg-kompatiblen OSS-Engines wie Spark, Trino und Flink und jetzt auch mit Drittanbieter-Engines wie Snowflake und Databricks (Vorschau). So können Sie Ihre Iceberg-Tabellen ganz einfach direkt mit Engines wie BigQuery und Google-verwaltetem Spark verbinden und Ihre KI-Arbeitslasten beschleunigen.
Nutzen Sie cloudübergreifende Verbindungen und Caching (Vorschau), um schnell und mit niedriger Latenz auf S3 Iceberg-Daten zuzugreifen. Führen Sie BigQuery, Spark und Gemini Enterprise über Jobs der API für konversationelle Analysen auf AWS-Daten aus. Die Preis-Leistungs-Merkmale sind mit denen nativer Datenplattformlösungen vergleichbar. Außerdem können Sie mit der neuen Lakehouse-Laufzeitkatalog-Verbundfunktion (Vorschau) Ihr Ökosystem nahtlos zusammenführen, sodass BigQuery und Google-verwaltetes Spark Unternehmensdaten in Snowflake, Databricks und AWS Glue erkennen und analysieren können.
Die erweiterte vektorisierte Ausführung von BigQuery ist jetzt die Standardeinstellung für Lakehouse Iceberg REST-Katalogtabellen sowie für Iceberg- und Parquet-Tabellen im BigQuery-Katalog. Sie können Routineaufgaben für die Iceberg-Wartung wie Komprimierung, Clustering und automatische Speicherbereinigung direkt an Google Lakehouse auslagern. Neue automatisierte Funktionen – darunter Tabellenverwaltung, Partitionierung, Clustering und historienbasierte Optimierung (allgemein verfügbar für Iceberg-Tabellen im BigQuery-Katalog; Vorschau für REST-Katalog) – beschleunigen das Preis-Leistungs-Verhältnis ohne manuellen Aufwand.
Mit Iceberg und BigQuery-Streaming können Sie Echtzeit-Statistiken erstellen, da die Daten mit hohem Durchsatz und ohne Leselatenz aufgenommen werden. Erstellen Sie komplexe Verarbeitungspipelines mit Transaktionen mit mehreren Anweisungen und BigQuery-Replikation von Änderungsdaten in Iceberg-Tabellen (GA für BigQuery-Katalog; Vorschau für REST-Katalog). Mit BigQueryObjectRefs können Sie strukturierte und unstrukturierte Daten zusammenführen und so multimodale, Vektor- und Graphanalysen ermöglichen. Mit der Lightning Engine können Sie Spark-Data-Science-Arbeitslasten mit einer bis zu 4,5‑mal schnelleren Leistung optimieren.
KI-Agenten mit Transaktionsdaten in Echtzeit unterstützen. Streamen Sie Betriebsdaten aus Spanner, AlloyDB und Cloud SQL in BigQuery und verwaltete Iceberg-Tabellen, um sie sofort zu analysieren. Die Analyseergebnisse können Sie direkt in AlloyDB oder Spanner zurückschreiben, um sie mit einer Latenz von weniger als einer Millisekunde und hoher QPS bereitzustellen. Dank der Integration von Knowledge Catalog (ehemals Dataplex) erhalten Sie eine einheitliche Verwaltung mit Lineage, Profilerstellung und Datenqualität. Ordnen Sie transaktionale, unstrukturierte und Iceberg-Daten Ihrer Geschäftslogik zu, damit Ihre Agenten den nötigen Kontext erhalten, um genaue, zuverlässige und vollständig kontrollierte Ergebnisse zu liefern.
Auf eine offene, einheitliche Lakehouse-Architektur umstellen
Modernisieren Sie Ihre Datenbasis mit dem Lakehouse von Google. Migrieren Sie Legacy-Hadoop zu serverlosem Cloud Storage und vereinheitlichen Sie cloudübergreifende Daten, indem Sie Iceberg und Delta Lake direkt in BigQuery abfragen. Der Lakehouse Iceberg REST-Katalog beseitigt Silos und bietet eine interoperable Laufzeit für Spark, Trino und Flink. Mit der Unterstützung für Hive-Kataloge können Sie Hadoop-Arbeitslasten einfach auf Iceberg modernisieren.
Auf eine offene, einheitliche Lakehouse-Architektur umstellen
Modernisieren Sie Ihre Datenbasis mit dem Lakehouse von Google. Migrieren Sie Legacy-Hadoop zu serverlosem Cloud Storage und vereinheitlichen Sie cloudübergreifende Daten, indem Sie Iceberg und Delta Lake direkt in BigQuery abfragen. Der Lakehouse Iceberg REST-Katalog beseitigt Silos und bietet eine interoperable Laufzeit für Spark, Trino und Flink. Mit der Unterstützung für Hive-Kataloge können Sie Hadoop-Arbeitslasten einfach auf Iceberg modernisieren.
Nahtlose Lese-/Schreibfreigabe zwischen BigQuery und OSS-Engines
Sie können Ihre vorhandenen Iceberg-Pipelines verwenden und mit BigQuery oder verwaltetem Spark nahtlos Daten in diese Tabellen lesen oder schreiben. Gleichzeitig können Sie Ihre Pipelines mit den erweiterten BigQuery-Funktionen ganz einfach modernisieren. Sie können Spark-ETL und BigQuery AI für exakt dieselben Iceberg-Tabellen ausführen, ohne Daten verschieben zu müssen. Sie können konversationelle Analyse-Agents in BigQuery erstellen, die mit Ihren Daten in S3 arbeiten.
Nahtlose Lese-/Schreibfreigabe zwischen BigQuery und OSS-Engines
Sie können Ihre vorhandenen Iceberg-Pipelines verwenden und mit BigQuery oder verwaltetem Spark nahtlos Daten in diese Tabellen lesen oder schreiben. Gleichzeitig können Sie Ihre Pipelines mit den erweiterten BigQuery-Funktionen ganz einfach modernisieren. Sie können Spark-ETL und BigQuery AI für exakt dieselben Iceberg-Tabellen ausführen, ohne Daten verschieben zu müssen. Sie können konversationelle Analyse-Agents in BigQuery erstellen, die mit Ihren Daten in S3 arbeiten.
Multimodale Datenanalyse und beschleunigte KI-Workflows
Mit BigQuery AI können Sie multimodale Analysen durchführen, indem Sie strukturierte Iceberg-Tabellen mit unstrukturierten Daten kombinieren und BigQuery ObjectRefs für Single-SQL-Inferenz verwenden. Sie können Modelle der Gemini Enterprise Agent Platform trainieren und Data Drift mit Zeitreisen debuggen. Sie können globale REST-Kataloge in einem einheitlichen Data Mesh zusammenführen, Logs in großem Umfang kostengünstig analysieren und Modelle direkt in integrierten Notebooks erstellen, um Ihre KI-Workflows zu beschleunigen.
Multimodale Datenanalyse und beschleunigte KI-Workflows
Mit BigQuery AI können Sie multimodale Analysen durchführen, indem Sie strukturierte Iceberg-Tabellen mit unstrukturierten Daten kombinieren und BigQuery ObjectRefs für Single-SQL-Inferenz verwenden. Sie können Modelle der Gemini Enterprise Agent Platform trainieren und Data Drift mit Zeitreisen debuggen. Sie können globale REST-Kataloge in einem einheitlichen Data Mesh zusammenführen, Logs in großem Umfang kostengünstig analysieren und Modelle direkt in integrierten Notebooks erstellen, um Ihre KI-Workflows zu beschleunigen.
Data-Science-Workloads in Entwicklungsumgebungen optimieren
Reibungslose Spark-Nutzung. Führen Sie SQL, Spark und Python mit einheitlichen IDEs für eine einzige Kopie von Iceberg-Daten aus. Die neue Antigravity VS Code-Erweiterung fungiert als KI-Partner, um Pipelines zu generieren, Code zu debuggen und CI/CD aus natürlicher Sprache zu automatisieren. Außerdem beschleunigt unsere vektorisierte Lightning Engine die Spark-Ausführung um das bis zu 4,5‑Fache – ohne dass Codeänderungen erforderlich sind.
Data-Science-Workloads in Entwicklungsumgebungen optimieren
Reibungslose Spark-Nutzung. Führen Sie SQL, Spark und Python mit einheitlichen IDEs für eine einzige Kopie von Iceberg-Daten aus. Die neue Antigravity VS Code-Erweiterung fungiert als KI-Partner, um Pipelines zu generieren, Code zu debuggen und CI/CD aus natürlicher Sprache zu automatisieren. Außerdem beschleunigt unsere vektorisierte Lightning Engine die Spark-Ausführung um das bis zu 4,5‑Fache – ohne dass Codeänderungen erforderlich sind.
Leistungsoptimierung mit BigQuery
Nutzen Sie die Skalierbarkeit von BigQuery und profitieren Sie gleichzeitig von flexiblem Speicher. Führen Sie Transaktionen mit mehreren Anweisungen in BigQuery aus, um mehrere Iceberg-Tabellen als eine einzige atomare Einheit zu aktualisieren und so eine Konsistenz auf Finanzebene zu gewährleisten. Nutzen Sie die erweiterte Laufzeit und die Partitionierungsunterstützung von BigQuery für Iceberg, um partitionierte/geclusterte Tabellen zu erstellen, die Block Pruning für eine schnelle und kosteneffiziente Abfrageausführung nutzen.
Leistungsoptimierung mit BigQuery
Nutzen Sie die Skalierbarkeit von BigQuery und profitieren Sie gleichzeitig von flexiblem Speicher. Führen Sie Transaktionen mit mehreren Anweisungen in BigQuery aus, um mehrere Iceberg-Tabellen als eine einzige atomare Einheit zu aktualisieren und so eine Konsistenz auf Finanzebene zu gewährleisten. Nutzen Sie die erweiterte Laufzeit und die Partitionierungsunterstützung von BigQuery für Iceberg, um partitionierte/geclusterte Tabellen zu erstellen, die Block Pruning für eine schnelle und kosteneffiziente Abfrageausführung nutzen.
Kombinierte transaktionsorientierte und analytische Verarbeitung für agentische KI
Vereinheitlichen Sie Ihre Transaktions- und Analysedaten, um ereignisgesteuerte KI-Agenten zu entwickeln. Automatisieren Sie die kontinuierliche CDC-Replikation von Spanner und AlloyDB direkt in Lakehouse Iceberg-Tabellen. Verwenden Sie dann kontinuierliche SQL-Abfragen, um diese Streamingdaten zu überwachen, sofort KI-Inferenz auszuführen und nachgeschaltete Aktionen auszulösen. So erhalten Sie Echtzeitinformationen für Ihre wichtigsten operativen Arbeitslasten.
Kombinierte transaktionsorientierte und analytische Verarbeitung für agentische KI
Vereinheitlichen Sie Ihre Transaktions- und Analysedaten, um ereignisgesteuerte KI-Agenten zu entwickeln. Automatisieren Sie die kontinuierliche CDC-Replikation von Spanner und AlloyDB direkt in Lakehouse Iceberg-Tabellen. Verwenden Sie dann kontinuierliche SQL-Abfragen, um diese Streamingdaten zu überwachen, sofort KI-Inferenz auszuführen und nachgeschaltete Aktionen auszulösen. So erhalten Sie Echtzeitinformationen für Ihre wichtigsten operativen Arbeitslasten.
Lakehouse mit Knowledge Catalog verwalten
Knowledge Catalog bietet eine einheitliche Governance-Ebene, indem Iceberg-Tabellen in Cloud Storage automatisch erkannt und ihre Metadaten direkt im Lakehouse-Laufzeitkatalog registriert werden. Diese Integration ermöglicht es Ihnen, zentralisierte Sicherheitsrichtlinien zu definieren, die eine konsistente Zugriffssteuerung auf Zeilen- und Spaltenebene sowohl in BigQuery als auch in Open-Source-Verarbeitungs-Engines gewährleisten.
Lakehouse mit Knowledge Catalog verwalten
Knowledge Catalog bietet eine einheitliche Governance-Ebene, indem Iceberg-Tabellen in Cloud Storage automatisch erkannt und ihre Metadaten direkt im Lakehouse-Laufzeitkatalog registriert werden. Diese Integration ermöglicht es Ihnen, zentralisierte Sicherheitsrichtlinien zu definieren, die eine konsistente Zugriffssteuerung auf Zeilen- und Spaltenebene sowohl in BigQuery als auch in Open-Source-Verarbeitungs-Engines gewährleisten.
Preise
| Preise für Lakehouse (BigLake) | Die Preise für Lakehouse (BigLake) basieren auf der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff. | |
|---|---|---|
| Dienste und Nutzung | Beschreibung | Preis (in $) |
Lakehouse-Tabellenverwaltung (BigLake) | Rechenressourcen der Lakehouse-Tabellenverwaltung (BigLake), die für die automatische Optimierung des Tabellenspeichers verwendet werden. | Ab 0,12 $ pro DCU-Stunde |
Lakehouse-Metadatenspeicher (BigLake) | Lakehouse for Apache Iceberg Metastore (Lakehouse-Laufzeitkatalog) stellt die gespeicherten Metadaten in Rechnung. Das kostenlose Kontingent umfasst 1 GiB Metadatenspeicher pro Monat. | Ab 0,04 $ pro GiB und Monat |
Lakehouse-Metadatenzugriff (BigLake) | Vorgänge der Klasse A: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Ein kostenloses Kontingent von 5.000 Vorgängen pro Monat ist enthalten. | Ab 6,00 $ pro 1 Million Vorgänge |
Vorgänge der Klasse B: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Lese-, Abruf- und Löschvorgänge mit einem kostenlosen Kontingent von 50.000 Vorgängen pro Monat. | Ab 0,90 $ pro 1 Million Vorgänge | |
Preise für Lakehouse (BigLake)
Die Preise für Lakehouse (BigLake) basieren auf der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff.
Lakehouse-Tabellenverwaltung (BigLake)
Rechenressourcen der Lakehouse-Tabellenverwaltung (BigLake), die für die automatische Optimierung des Tabellenspeichers verwendet werden.
Starting at
0,12 $
pro DCU-Stunde
Lakehouse-Metadatenspeicher (BigLake)
Lakehouse for Apache Iceberg Metastore (Lakehouse-Laufzeitkatalog) stellt die gespeicherten Metadaten in Rechnung. Das kostenlose Kontingent umfasst 1 GiB Metadatenspeicher pro Monat.
Starting at
0,04 $
pro GiB und Monat
Lakehouse-Metadatenzugriff (BigLake)
Vorgänge der Klasse A: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Ein kostenloses Kontingent von 5.000 Vorgängen pro Monat ist enthalten.
Starting at
6,00 $
pro 1 Million Vorgänge
Vorgänge der Klasse B: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Lese-, Abruf- und Löschvorgänge mit einem kostenlosen Kontingent von 50.000 Vorgängen pro Monat.
Starting at
0,90 $
pro 1 Million Vorgänge