Lakehouse for Apache Iceberg (ehemals BigLake)

Offenes, cloudübergreifendes Lakehouse für das Zeitalter der KI-Agenten

Speicher, Governance und Leistung auf Unternehmensebene, um skalierbare analytische, operative und KI-Anwendungsfälle in Echtzeit auf einem einheitlichen, cloudübergreifenden und multimodalen offenen Lakehouse zu entwickeln.

Apache Iceberg ist eine Marke der Apache Software Foundation.



Features

Vollständig verwaltetes Iceberg mit Lese-/Schreib-Interoperabilität

Apache Iceberg-Tabellen, die mit dem Lakehouse Iceberg REST Catalog verwaltet werden, ermöglichen die Interoperabilität von Lese- und Schreibvorgängen zwischen BigQuery und Google Cloud Managed Service for Apache Spark sowie Iceberg-kompatiblen OSS-Engines wie Spark, Trino und Flink und jetzt auch mit Drittanbieter-Engines wie Snowflake und Databricks (Vorschau). So können Sie Ihre Iceberg-Tabellen ganz einfach direkt mit Engines wie BigQuery und Google-verwaltetem Spark verbinden und Ihre KI-Arbeitslasten beschleunigen.

Google AI mit Ihren cloudübergreifenden Iceberg-Daten verbinden

Nutzen Sie cloudübergreifende Verbindungen und Caching (Vorschau), um schnell und mit niedriger Latenz auf S3 Iceberg-Daten zuzugreifen. Führen Sie BigQuery, Spark und Gemini Enterprise über Jobs der API für konversationelle Analysen auf AWS-Daten aus. Die Preis-Leistungs-Merkmale sind mit denen nativer Datenplattformlösungen vergleichbar. Außerdem können Sie mit der neuen Lakehouse-Laufzeitkatalog-Verbundfunktion (Vorschau) Ihr Ökosystem nahtlos zusammenführen, sodass BigQuery und Google-verwaltetes Spark Unternehmensdaten in Snowflake, Databricks und AWS Glue erkennen und analysieren können.

Steigerung des Preis-Leistungs-Verhältnisses für Iceberg

Die erweiterte vektorisierte Ausführung von BigQuery ist jetzt die Standardeinstellung für Lakehouse Iceberg REST-Katalogtabellen sowie für Iceberg- und Parquet-Tabellen im BigQuery-Katalog. Sie können Routineaufgaben für die Iceberg-Wartung wie Komprimierung, Clustering und automatische Speicherbereinigung direkt an Google Lakehouse auslagern. Neue automatisierte Funktionen – darunter Tabellenverwaltung, Partitionierung, Clustering und historienbasierte Optimierung (allgemein verfügbar für Iceberg-Tabellen im BigQuery-Katalog; Vorschau für REST-Katalog) – beschleunigen das Preis-Leistungs-Verhältnis ohne manuellen Aufwand.

Differenzierte BigQuery- und Spark-Lösung

Mit Iceberg und BigQuery-Streaming können Sie Echtzeit-Statistiken erstellen, da die Daten mit hohem Durchsatz und ohne Leselatenz aufgenommen werden. Erstellen Sie komplexe Verarbeitungspipelines mit Transaktionen mit mehreren Anweisungen und BigQuery-Replikation von Änderungsdaten in Iceberg-Tabellen (GA für BigQuery-Katalog; Vorschau für REST-Katalog). Mit BigQueryObjectRefs können Sie strukturierte und unstrukturierte Daten zusammenführen und so multimodale, Vektor- und Graphanalysen ermöglichen. Mit der Lightning Engine können Sie Spark-Data-Science-Arbeitslasten mit einer bis zu 4,5‑mal schnelleren Leistung optimieren. 

Kontext und Governance für KI-Agenten in Echtzeit

KI-Agenten mit Transaktionsdaten in Echtzeit unterstützen. Streamen Sie Betriebsdaten aus Spanner, AlloyDB und Cloud SQL in BigQuery und verwaltete Iceberg-Tabellen, um sie sofort zu analysieren. Die Analyseergebnisse können Sie direkt in AlloyDB oder Spanner zurückschreiben, um sie mit einer Latenz von weniger als einer Millisekunde und hoher QPS bereitzustellen. Dank der Integration von Knowledge Catalog (ehemals Dataplex) erhalten Sie eine einheitliche Verwaltung mit Lineage, Profilerstellung und Datenqualität. Ordnen Sie transaktionale, unstrukturierte und Iceberg-Daten Ihrer Geschäftslogik zu, damit Ihre Agenten den nötigen Kontext erhalten, um genaue, zuverlässige und vollständig kontrollierte Ergebnisse zu liefern.

Funktionsweise

Der Lakehouse-REST-Katalog dient als zentraler Hub für Ihre Iceberg-Tabellen. Er bietet universellen Lese-/Schreibzugriff auf BigQuery, Managed Service for Apache Spark, OSS-Engines und Partner und verbindet Ihre Daten nahtlos mit jeder Engine, um KI zu beschleunigen.

Gängige Einsatzmöglichkeiten

Lakehouse-Grundlage und -Modernisierung

Auf eine offene, einheitliche Lakehouse-Architektur umstellen

Modernisieren Sie Ihre Datenbasis mit dem Lakehouse von Google. Migrieren Sie Legacy-Hadoop zu serverlosem Cloud Storage und vereinheitlichen Sie cloudübergreifende Daten, indem Sie Iceberg und Delta Lake direkt in BigQuery abfragen. Der Lakehouse Iceberg REST-Katalog beseitigt Silos und bietet eine interoperable Laufzeit für Spark, Trino und Flink. Mit der Unterstützung für Hive-Kataloge können Sie Hadoop-Arbeitslasten einfach auf Iceberg modernisieren.

    Auf eine offene, einheitliche Lakehouse-Architektur umstellen

    Modernisieren Sie Ihre Datenbasis mit dem Lakehouse von Google. Migrieren Sie Legacy-Hadoop zu serverlosem Cloud Storage und vereinheitlichen Sie cloudübergreifende Daten, indem Sie Iceberg und Delta Lake direkt in BigQuery abfragen. Der Lakehouse Iceberg REST-Katalog beseitigt Silos und bietet eine interoperable Laufzeit für Spark, Trino und Flink. Mit der Unterstützung für Hive-Kataloge können Sie Hadoop-Arbeitslasten einfach auf Iceberg modernisieren.

      Interoperabilität mehrerer Engines

      Nahtlose Lese-/Schreibfreigabe zwischen BigQuery und OSS-Engines

      Sie können Ihre vorhandenen Iceberg-Pipelines verwenden und mit BigQuery oder verwaltetem Spark nahtlos Daten in diese Tabellen lesen oder schreiben. Gleichzeitig können Sie Ihre Pipelines mit den erweiterten BigQuery-Funktionen ganz einfach modernisieren. Sie können Spark-ETL und BigQuery AI für exakt dieselben Iceberg-Tabellen ausführen, ohne Daten verschieben zu müssen. Sie können konversationelle Analyse-Agents in BigQuery erstellen, die mit Ihren Daten in S3 arbeiten.

        Nahtlose Lese-/Schreibfreigabe zwischen BigQuery und OSS-Engines

        Sie können Ihre vorhandenen Iceberg-Pipelines verwenden und mit BigQuery oder verwaltetem Spark nahtlos Daten in diese Tabellen lesen oder schreiben. Gleichzeitig können Sie Ihre Pipelines mit den erweiterten BigQuery-Funktionen ganz einfach modernisieren. Sie können Spark-ETL und BigQuery AI für exakt dieselben Iceberg-Tabellen ausführen, ohne Daten verschieben zu müssen. Sie können konversationelle Analyse-Agents in BigQuery erstellen, die mit Ihren Daten in S3 arbeiten.

          Iceberg-Daten in KI-Workflows einbinden

          Multimodale Datenanalyse und beschleunigte KI-Workflows

          Mit BigQuery AI können Sie multimodale Analysen durchführen, indem Sie strukturierte Iceberg-Tabellen mit unstrukturierten Daten kombinieren und BigQuery ObjectRefs für Single-SQL-Inferenz verwenden. Sie können Modelle der Gemini Enterprise Agent Platform trainieren und Data Drift mit Zeitreisen debuggen. Sie können globale REST-Kataloge in einem einheitlichen Data Mesh zusammenführen, Logs in großem Umfang kostengünstig analysieren und Modelle direkt in integrierten Notebooks erstellen, um Ihre KI-Workflows zu beschleunigen.


            Multimodale Datenanalyse und beschleunigte KI-Workflows

            Mit BigQuery AI können Sie multimodale Analysen durchführen, indem Sie strukturierte Iceberg-Tabellen mit unstrukturierten Daten kombinieren und BigQuery ObjectRefs für Single-SQL-Inferenz verwenden. Sie können Modelle der Gemini Enterprise Agent Platform trainieren und Data Drift mit Zeitreisen debuggen. Sie können globale REST-Kataloge in einem einheitlichen Data Mesh zusammenführen, Logs in großem Umfang kostengünstig analysieren und Modelle direkt in integrierten Notebooks erstellen, um Ihre KI-Workflows zu beschleunigen.


              Erstklassige Spark-Erfahrung

              Data-Science-Workloads in Entwicklungsumgebungen optimieren

              Reibungslose Spark-Nutzung. Führen Sie SQL, Spark und Python mit einheitlichen IDEs für eine einzige Kopie von Iceberg-Daten aus. Die neue Antigravity VS Code-Erweiterung fungiert als KI-Partner, um Pipelines zu generieren, Code zu debuggen und CI/CD aus natürlicher Sprache zu automatisieren. Außerdem beschleunigt unsere vektorisierte Lightning Engine die Spark-Ausführung um das bis zu 4,5‑Fache – ohne dass Codeänderungen erforderlich sind.

                Data-Science-Workloads in Entwicklungsumgebungen optimieren

                Reibungslose Spark-Nutzung. Führen Sie SQL, Spark und Python mit einheitlichen IDEs für eine einzige Kopie von Iceberg-Daten aus. Die neue Antigravity VS Code-Erweiterung fungiert als KI-Partner, um Pipelines zu generieren, Code zu debuggen und CI/CD aus natürlicher Sprache zu automatisieren. Außerdem beschleunigt unsere vektorisierte Lightning Engine die Spark-Ausführung um das bis zu 4,5‑Fache – ohne dass Codeänderungen erforderlich sind.

                  Hochleistungsanalysen mit BigQuery

                  Leistungsoptimierung mit BigQuery

                  Nutzen Sie die Skalierbarkeit von BigQuery und profitieren Sie gleichzeitig von flexiblem Speicher. Führen Sie Transaktionen mit mehreren Anweisungen in BigQuery aus, um mehrere Iceberg-Tabellen als eine einzige atomare Einheit zu aktualisieren und so eine Konsistenz auf Finanzebene zu gewährleisten. Nutzen Sie die erweiterte Laufzeit und die Partitionierungsunterstützung von BigQuery für Iceberg, um partitionierte/geclusterte Tabellen zu erstellen, die Block Pruning für eine schnelle und kosteneffiziente Abfrageausführung nutzen.

                    Leistungsoptimierung mit BigQuery

                    Nutzen Sie die Skalierbarkeit von BigQuery und profitieren Sie gleichzeitig von flexiblem Speicher. Führen Sie Transaktionen mit mehreren Anweisungen in BigQuery aus, um mehrere Iceberg-Tabellen als eine einzige atomare Einheit zu aktualisieren und so eine Konsistenz auf Finanzebene zu gewährleisten. Nutzen Sie die erweiterte Laufzeit und die Partitionierungsunterstützung von BigQuery für Iceberg, um partitionierte/geclusterte Tabellen zu erstellen, die Block Pruning für eine schnelle und kosteneffiziente Abfrageausführung nutzen.

                      Echtzeitinformationen

                      Kombinierte transaktionsorientierte und analytische Verarbeitung für agentische KI

                      Vereinheitlichen Sie Ihre Transaktions- und Analysedaten, um ereignisgesteuerte KI-Agenten zu entwickeln. Automatisieren Sie die kontinuierliche CDC-Replikation von Spanner und AlloyDB direkt in Lakehouse Iceberg-Tabellen. Verwenden Sie dann kontinuierliche SQL-Abfragen, um diese Streamingdaten zu überwachen, sofort KI-Inferenz auszuführen und nachgeschaltete Aktionen auszulösen. So erhalten Sie Echtzeitinformationen für Ihre wichtigsten operativen Arbeitslasten.

                        Kombinierte transaktionsorientierte und analytische Verarbeitung für agentische KI

                        Vereinheitlichen Sie Ihre Transaktions- und Analysedaten, um ereignisgesteuerte KI-Agenten zu entwickeln. Automatisieren Sie die kontinuierliche CDC-Replikation von Spanner und AlloyDB direkt in Lakehouse Iceberg-Tabellen. Verwenden Sie dann kontinuierliche SQL-Abfragen, um diese Streamingdaten zu überwachen, sofort KI-Inferenz auszuführen und nachgeschaltete Aktionen auszulösen. So erhalten Sie Echtzeitinformationen für Ihre wichtigsten operativen Arbeitslasten.

                          End-to-End-Lakehouse-Governance

                          Lakehouse mit Knowledge Catalog verwalten

                          Knowledge Catalog bietet eine einheitliche Governance-Ebene, indem Iceberg-Tabellen in Cloud Storage automatisch erkannt und ihre Metadaten direkt im Lakehouse-Laufzeitkatalog registriert werden. Diese Integration ermöglicht es Ihnen, zentralisierte Sicherheitsrichtlinien zu definieren, die eine konsistente Zugriffssteuerung auf Zeilen- und Spaltenebene sowohl in BigQuery als auch in Open-Source-Verarbeitungs-Engines gewährleisten.

                            Lakehouse mit Knowledge Catalog verwalten

                            Knowledge Catalog bietet eine einheitliche Governance-Ebene, indem Iceberg-Tabellen in Cloud Storage automatisch erkannt und ihre Metadaten direkt im Lakehouse-Laufzeitkatalog registriert werden. Diese Integration ermöglicht es Ihnen, zentralisierte Sicherheitsrichtlinien zu definieren, die eine konsistente Zugriffssteuerung auf Zeilen- und Spaltenebene sowohl in BigQuery als auch in Open-Source-Verarbeitungs-Engines gewährleisten.

                              Preise

                              Preise für Lakehouse (BigLake)Die Preise für Lakehouse (BigLake) basieren auf der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff.
                              Dienste und NutzungBeschreibungPreis (in $)

                              Lakehouse-Tabellenverwaltung (BigLake)

                              Rechenressourcen der Lakehouse-Tabellenverwaltung (BigLake), die für die automatische Optimierung des Tabellenspeichers verwendet werden.

                              Ab

                              0,12 $

                              pro DCU-Stunde

                              Lakehouse-Metadatenspeicher (BigLake)

                              Lakehouse for Apache Iceberg Metastore (Lakehouse-Laufzeitkatalog) stellt die gespeicherten Metadaten in Rechnung. Das kostenlose Kontingent umfasst 1 GiB Metadatenspeicher pro Monat.

                              Ab

                              0,04 $

                              pro GiB und Monat

                              Lakehouse-Metadatenzugriff (BigLake)

                              Vorgänge der Klasse A: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Ein kostenloses Kontingent von 5.000 Vorgängen pro Monat ist enthalten.

                              Ab

                              6,00 $

                              pro 1 Million Vorgänge

                              Vorgänge der Klasse B: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Lese-, Abruf- und Löschvorgänge mit einem kostenlosen Kontingent von 50.000 Vorgängen pro Monat.

                              Ab

                              0,90 $

                              pro 1 Million Vorgänge

                              Preise für Lakehouse (BigLake)

                              Die Preise für Lakehouse (BigLake) basieren auf der Tabellenverwaltung, dem Metadatenspeicher und dem Metadatenzugriff.

                              Lakehouse-Tabellenverwaltung (BigLake)

                              Beschreibung

                              Rechenressourcen der Lakehouse-Tabellenverwaltung (BigLake), die für die automatische Optimierung des Tabellenspeichers verwendet werden.

                              Preis (in $)

                              Starting at

                              0,12 $

                              pro DCU-Stunde

                              Lakehouse-Metadatenspeicher (BigLake)

                              Beschreibung

                              Lakehouse for Apache Iceberg Metastore (Lakehouse-Laufzeitkatalog) stellt die gespeicherten Metadaten in Rechnung. Das kostenlose Kontingent umfasst 1 GiB Metadatenspeicher pro Monat.

                              Preis (in $)

                              Starting at

                              0,04 $

                              pro GiB und Monat

                              Lakehouse-Metadatenzugriff (BigLake)

                              Beschreibung

                              Vorgänge der Klasse A: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Schreib-, Aktualisierungs-, Listen-, Erstellungs- und Konfigurationsvorgänge. Ein kostenloses Kontingent von 5.000 Vorgängen pro Monat ist enthalten.

                              Preis (in $)

                              Starting at

                              6,00 $

                              pro 1 Million Vorgänge

                              Vorgänge der Klasse B: Gebühren für den Zugriff auf Lakehouse-Metadaten (BigLake) für Lese-, Abruf- und Löschvorgänge mit einem kostenlosen Kontingent von 50.000 Vorgängen pro Monat.

                              Beschreibung

                              Starting at

                              0,90 $

                              pro 1 Million Vorgänge

                              Preisrechner

                              Mit dem Preisrechner können Sie Ihre monatlichen Lakehouse-Kosten einschließlich regionsspezifischer Preise und Gebühren schätzen.

                              Individuelles Angebot

                              Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.

                              Proof of Concept starten

                              Kostenlosen Testzeitraum starten

                              Sie haben ein großes Projekt?

                              Vollständig verwaltete Apache Iceberg-Tabellen

                              Apache Iceberg REST-Katalog verwenden

                              Apache Iceberg-Daten abfragen

                              Google Cloud