BigLake
BigLake ist eine Speicher-Engine, die Data Warehouses und Lakes vereinheitlicht. Dazu ermöglicht sie es BigQuery und Open-Source-Frameworks wie Spark, über eine fein abgestimmte Zugriffssteuerung auf Daten zuzugreifen. BigLake bietet eine beschleunigte Abfrageleistung für Multi-Cloud-Speicher und offene Formate wie Apache Iceberg.
-
Speichern Sie eine einzige Kopie der Daten mit einheitlichen Features in Data Warehouses und Lakes.
-
Detaillierte Zugriffssteuerung und Multi-Cloud-Governance für verteilte Daten.
-
Nahtlose Integration mit Open-Source-Analysetools und offenen Datenformaten
Vorteile
Wahlfreiheit
Sie können Analysen für verteilte Daten unabhängig davon erstellen, wo und wie sie gespeichert werden. Außerdem können Sie dabei die besten Analysetools, Open Source oder cloudnativ, für eine einzige Kopie der Daten auswählen.
Sichere und leistungsfähige Data Lakes
Detaillierte Zugriffssteuerung über Open-Source-Engines wie Apache Spark, Presto und Trino sowie offene Formate wie Parquet hinweg. Leistungsstarke Abfragen von Data Lakes, die von BigQuery bereitgestellt werden.
Einheitliche Governance und Verwaltung in großem Umfang
Lässt sich in Dataplex einbinden, um die Verwaltung in großem Maßstab zu ermöglichen, einschließlich logischer Datenorganisation, zentralisierter Richtlinien- und Metadatenverwaltung, Qualitäts- und Lebenszyklusverwaltung für Konsistenz über verteilte Daten hinweg.
Wichtige Features
Wichtige Features
Detaillierte Sicherheitskontrollen
Mit BigLake ist es nicht mehr notwendig, Endnutzern Zugriff auf Dateiebene zu gewähren. Wenden Sie auf Objektspeichertabellen, die vorhandenen BigQuery-Tabellen ähneln, Sicherheitsrichtlinien auf Tabellen-, Zeilen- und Spaltenebene an.
Multi-Computing-Analysen
Arbeiten Sie mit einer einzigen Kopie von Daten und machen Sie sie über Google Cloud und Open-Source-Engines, darunter BigQuery, Vertex AI, Dataflow, Spark, Presto, Trino und Hive, mithilfe von BigLake-Connectors einheitlich zugänglich. Sie können Sicherheitsrichtlinien zentral an einem Ort verwalten und sie über die in die Connectors eingebundene API-Schnittstelle konsistent für Abfrage-Engines erzwingen.
Multi-Cloud-Governance
Lernen Sie alle BigLake-Tabellen kennen, einschließlich der in Data Catalog über Amazon S3 und Azure Data Lake Gen 2 definierten Tabellen. Konfigurieren Sie eine differenzierte Zugriffssteuerung und erzwingen Sie sie über Clouds hinweg bei Abfragen mit BigQuery Omni.
Stärkere Leistung
Erzielen Sie eine branchenführende Leistung bei Data Lake-Tabellen in Google Cloud, AWS und Azure, unterstützt durch die bewährte BigQuery-Infrastruktur.
Basierend auf offenen Formaten
Erhalten Sie Zugang zu den gängigsten offenen Datenformaten wie Parquet, Avro, ORC, CSV und JSON. Die API arbeitet für mehrere Computing Engines über Apache Arrow.
„Als schnell wachsendes E-Commerce-Unternehmen haben die Daten schnell im Umfang zugenommen. Mit BigLake können wir den Mehrwert von Data Lakes erschließen, indem wir Zugriffssteuerung für unsere Ansichten ermöglichen und unseren Nutzern eine einheitliche Oberfläche zur Verfügung stellen und Die Kosten für die Datenspeicherung werden niedrig gehalten. Dies wiederum ermöglicht eine schnellere Analyse unserer Datasets durch unsere Nutzer.“
Das ist neu
Das ist neu
Dokumentation
Dokumentation
Einführung in BigLake
Erfahren Sie BigLake-Konzepte und erfahren Sie, wie Sie Ihre Analysen damit vereinfachen können.
Erste Schritte mit BigLake
Erfahren Sie, wie Sie BigLake-Tabellen erstellen und verwalten und eine BigQuery-Tabelle über BigQuery oder andere Open-Source-Engines mithilfe von Connectors abfragen.
Preise
Preise
Die Preise für BigLake basieren auf dem Abfragen von BigLake-Tabellen und umfassen Folgendes:
1. BigQuery-Preise gelten für Abfragen von BigLake-Tabellen, die in Google Cloud Storage definiert sind.
2. BigQuery Omni-Preise gelten für Abfragen von BigLake-Tabellen, die in Amazon S3 und dem Azure Data Lake Gen 2 definiert sind.
3. Abfragen durch Open-Source-Engines, die BigLake-Connectors verwenden: BigLake-Connectors verwenden die BigQuery Storage API und die entsprechenden Preise gelten – abgerechnet anhand gelesener Byte und ausgehendem Traffic.