Lakehouse pour Apache Iceberg (anciennement BigLake)

Lakehouse ouvert et multicloud pour l'ère de l'agentivité

Stockage, gouvernance et performances d'entreprise pour créer des cas d'utilisation d'IA évolutifs, analytiques, opérationnels et en temps réel sur un lakehouse ouvert, multimodal et unifié dans le cloud.

Apache Iceberg est une marque de l'Apache Software Foundation.



Fonctionnalités

Iceberg entièrement géré avec interopérabilité en lecture/écriture

Les tables Apache Iceberg, gérées à l'aide du catalogue REST Iceberg de lakehouse, offrent une interopérabilité en lecture et en écriture entre BigQuery et Google Cloud Managed Service pour Apache Spark, ainsi qu'avec les moteurs OSS compatibles avec Iceberg tels que Spark, Trino et Flink, et désormais avec des moteurs tiers comme Snowflake et Databricks (en preview). Cela vous permet de connecter facilement vos tables Iceberg directement à des moteurs tels que BigQuery et Spark géré par Google afin d'accélérer vos charges de travail d'IA.

L'IA de Google connectée à vos données Iceberg multicloud

Exploitez l'interconnexion et la mise en cache multicloud (bêta) pour accéder rapidement et avec une faible latence aux données S3 Iceberg. Exécutez BigQuery, Spark et Gemini Enterprise via des jobs d'API d'analyse conversationnelle sur des données AWS avec des caractéristiques de rapport prix/performances comparables à celles des solutions de plate-forme de données natives. De plus, la nouvelle fédération de catalogues d'exécution Lakehouse (en preview) unifie votre écosystème de manière transparente, permettant à BigQuery et à Google Managed Spark de découvrir et d'analyser les données d'entreprise dans Snowflake, Databricks et AWS Glue.

Accélération du rapport prix/performances pour Iceberg

L'exécution vectorisée améliorée de BigQuery est désormais activée par défaut pour les tables Lakehouse Iceberg REST Catalog, ainsi que pour les tables Iceberg et Parquet du catalogue BigQuery. Déchargez les tâches de maintenance Iceberg courantes, comme le compactage, le clustering et la récupération de mémoire, directement sur Google Lakehouse. Les nouvelles fonctionnalités automatisées, y compris la gestion des tables, le partitionnement, le clustering et l'optimisation basée sur l'historique (disponibilité générale pour les tables Iceberg dans le catalogue BigQuery ; aperçu pour le catalogue REST), améliorent le rapport prix/performances sans aucune surcharge manuelle.

BigQuery et Spark différenciés

Générez des insights en temps réel avec Iceberg à l'aide du streaming BigQuery pour une ingestion à haut débit sans latence de lecture. Créez des pipelines de traitement complexes avec des transactions à plusieurs instructions et la réplication des données modifiées BigQuery vers les tables Iceberg (disponible en version DG pour le catalogue BigQuery et en version preview pour le catalogue REST). Débloquez les analyses multimodales, vectorielles et de graphes en unissant les données structurées et non structurées à l'aide de BigQueryObjectRefs. Boostez les charges de travail de data science Spark avec Lightning Engine et profitez de performances jusqu'à 4,5 fois supérieures. 

Contexte et gouvernance en temps réel pour les agents

Alimentez les agents d'IA avec des données transactionnelles en temps réel. Diffusez des données opérationnelles depuis Spanner, AlloyDB et Cloud SQL dans BigQuery et des tables Iceberg gérées pour une analyse instantanée, et renvoyez ces insights analytiques directement dans AlloyDB ou Spanner pour les exploiter avec une latence inférieure à la milliseconde et un nombre élevé de requêtes par seconde. Bénéficiez d'une gouvernance unifiée avec la traçabilité, le profilage et la qualité des données grâce à l'intégration de Knowledge Catalog (anciennement Dataplex). Mappez les données transactionnelles, non structurées et Iceberg à votre logique métier, ce qui permet à vos agents d'obtenir le contexte approfondi dont ils ont besoin pour fournir des résultats précis, fiables et entièrement régis.

Fonctionnement

Le catalogue REST Lakehouse sert de hub central pour vos tables Iceberg. Il offre un accès universel en lecture/écriture dans BigQuery, Managed Service pour Apache Spark, les moteurs OSS et les partenaires, en connectant vos données de manière transparente à n'importe quel moteur pour accélérer l'IA.

Utilisations courantes

Fondation et modernisation du lakehouse

Modernisez-vous en adoptant une architecture de lakehouse ouverte et unifiée

Modernisez votre infrastructure de données avec le lakehouse de Google. Migrez l'ancien Hadoop vers Cloud Storage sans serveur et unifiez les données multicloud en interrogeant Iceberg et Delta Lake directement dans BigQuery. Le catalogue REST Iceberg Lakehouse élimine les silos en offrant un environnement d'exécution interopérable pour Spark, Trino et Flink. Grâce à la prise en charge du catalogue Hive, vous pouvez facilement moderniser les charges de travail Hadoop vers Iceberg.

    Modernisez-vous en adoptant une architecture de lakehouse ouverte et unifiée

    Modernisez votre infrastructure de données avec le lakehouse de Google. Migrez l'ancien Hadoop vers Cloud Storage sans serveur et unifiez les données multicloud en interrogeant Iceberg et Delta Lake directement dans BigQuery. Le catalogue REST Iceberg Lakehouse élimine les silos en offrant un environnement d'exécution interopérable pour Spark, Trino et Flink. Grâce à la prise en charge du catalogue Hive, vous pouvez facilement moderniser les charges de travail Hadoop vers Iceberg.

      Interopérabilité multimoteur

      Partage en lecture/écriture fluide entre BigQuery et les moteurs OSS

      Utilisez vos pipelines Iceberg existants et lisez ou écrivez facilement dans ces tables à l'aide de BigQuery ou de Spark géré, tout en modernisant facilement vos opérations grâce aux fonctionnalités avancées de BigQuery. Optimisez la data science en exécutant Spark ETL et BigQuery AI sur les mêmes tables Iceberg, sans déplacer les données. Créez des agents d'analyse conversationnelle dans BigQuery qui fonctionnent avec vos données dans S3.

        Partage en lecture/écriture fluide entre BigQuery et les moteurs OSS

        Utilisez vos pipelines Iceberg existants et lisez ou écrivez facilement dans ces tables à l'aide de BigQuery ou de Spark géré, tout en modernisant facilement vos opérations grâce aux fonctionnalités avancées de BigQuery. Optimisez la data science en exécutant Spark ETL et BigQuery AI sur les mêmes tables Iceberg, sans déplacer les données. Créez des agents d'analyse conversationnelle dans BigQuery qui fonctionnent avec vos données dans S3.

          Intégrer des données Iceberg dans des workflows d'IA

          Analyse de données multimodales et workflows d'IA accélérés

          Améliorez l'analyse multimodale avec BigQuery AI en combinant des tables Iceberg structurées avec des données non structurées à l'aide de BigQuery ObjectRefs pour l'inférence en SQL unique. Entraînez des modèles de plate-forme d'agent Gemini Enterprise à l'aide de la fonctionnalité de voyage dans le temps pour déboguer la dérive des données Fédérez des catalogues REST mondiaux dans un maillage de données unifié, analysez des journaux à grande échelle de manière abordable et créez des modèles directement dans des notebooks intégrés pour accélérer vos workflows d'IA.


            Analyse de données multimodales et workflows d'IA accélérés

            Améliorez l'analyse multimodale avec BigQuery AI en combinant des tables Iceberg structurées avec des données non structurées à l'aide de BigQuery ObjectRefs pour l'inférence en SQL unique. Entraînez des modèles de plate-forme d'agent Gemini Enterprise à l'aide de la fonctionnalité de voyage dans le temps pour déboguer la dérive des données Fédérez des catalogues REST mondiaux dans un maillage de données unifié, analysez des journaux à grande échelle de manière abordable et créez des modèles directement dans des notebooks intégrés pour accélérer vos workflows d'IA.


              Expérience Spark de pointe

              Exécuter des charges de travail de data science dans des environnements de développement

              Profitez d'une expérience Spark fluide. Exécutez SQL, Spark et Python sur une seule copie des données Iceberg à l'aide d'IDE unifiés. La nouvelle extension Antigravity VS Code agit comme un partenaire d'IA pour générer des pipelines, déboguer du code et automatiser le CI/CD à partir du langage naturel. De plus, notre moteur vectorisé Lightning Engine accélère l'exécution de Spark jusqu'à 4,5 fois, sans nécessiter de modification du code.

                Exécuter des charges de travail de data science dans des environnements de développement

                Profitez d'une expérience Spark fluide. Exécutez SQL, Spark et Python sur une seule copie des données Iceberg à l'aide d'IDE unifiés. La nouvelle extension Antigravity VS Code agit comme un partenaire d'IA pour générer des pipelines, déboguer du code et automatiser le CI/CD à partir du langage naturel. De plus, notre moteur vectorisé Lightning Engine accélère l'exécution de Spark jusqu'à 4,5 fois, sans nécessiter de modification du code.

                  Analyses hautes performances avec BigQuery

                  Optimisation des performances avec BigQuery

                  Exploitez l'évolutivité de BigQuery tout en conservant un stockage flexible. Exécutez des transactions multi-instructions dans BigQuery pour mettre à jour plusieurs tables Iceberg en tant qu'unité atomique unique, ce qui garantit une cohérence de niveau financier. Utilisez les fonctionnalités avancées d'exécution et de partitionnement d'Iceberg dans BigQuery pour créer des tables partitionnées/en cluster qui exploitent l'élagage de blocs pour une exécution des requêtes rapide et économique.

                    Optimisation des performances avec BigQuery

                    Exploitez l'évolutivité de BigQuery tout en conservant un stockage flexible. Exécutez des transactions multi-instructions dans BigQuery pour mettre à jour plusieurs tables Iceberg en tant qu'unité atomique unique, ce qui garantit une cohérence de niveau financier. Utilisez les fonctionnalités avancées d'exécution et de partitionnement d'Iceberg dans BigQuery pour créer des tables partitionnées/en cluster qui exploitent l'élagage de blocs pour une exécution des requêtes rapide et économique.

                      Génération d'informations en temps réel

                      Combinaison de traitement transactionnel et analytique pour l'IA agentique

                      Alimentez les agents d'IA basés sur les événements en unifiant vos données transactionnelles et analytiques. Automatisez la réplication CDC continue depuis Spanner et AlloyDB directement dans les tables Lakehouse Iceberg. Ensuite, utilisez des requêtes continues SQL pour surveiller ces données en flux, exécuter instantanément l'inférence d'IA et déclencher des actions en aval. Vous obtenez ainsi des renseignements en temps réel pour vos charges de travail opérationnelles les plus critiques.

                        Combinaison de traitement transactionnel et analytique pour l'IA agentique

                        Alimentez les agents d'IA basés sur les événements en unifiant vos données transactionnelles et analytiques. Automatisez la réplication CDC continue depuis Spanner et AlloyDB directement dans les tables Lakehouse Iceberg. Ensuite, utilisez des requêtes continues SQL pour surveiller ces données en flux, exécuter instantanément l'inférence d'IA et déclencher des actions en aval. Vous obtenez ainsi des renseignements en temps réel pour vos charges de travail opérationnelles les plus critiques.

                          Gouvernance du lakehouse de bout en bout

                          Gouvernez votre lakehouse avec Knowledge Catalog

                          Knowledge Catalog fournit une couche de gouvernance unifiée en détectant automatiquement les tables Iceberg dans Cloud Storage et en enregistrant leurs métadonnées directement dans le catalogue d'exécution de Lakehouse. Cette intégration vous permet de définir des règles de sécurité centralisées qui garantissent un contrôle des accès cohérent au niveau des lignes et des colonnes, à la fois dans BigQuery et dans les moteurs de traitement Open Source.

                            Gouvernez votre lakehouse avec Knowledge Catalog

                            Knowledge Catalog fournit une couche de gouvernance unifiée en détectant automatiquement les tables Iceberg dans Cloud Storage et en enregistrant leurs métadonnées directement dans le catalogue d'exécution de Lakehouse. Cette intégration vous permet de définir des règles de sécurité centralisées qui garantissent un contrôle des accès cohérent au niveau des lignes et des colonnes, à la fois dans BigQuery et dans les moteurs de traitement Open Source.

                              Tarification

                              Fonctionnement des tarifs de lakehouse (BigLake)Les tarifs de Lakehouse (BigLake) sont basés sur la gestion des tables, le stockage des métadonnées et l'accès aux métadonnées.
                              Services et utilisationDescriptionPrix (USD)

                              Gestion des tables Lakehouse (BigLake)

                              Ressources de calcul permettant de gérer les tables Lakehouse (BigLake) lors de l'optimisation automatique du stockage des tables

                              À partir de

                              0,12 $

                              par heure d'unités de calcul de données

                              Stockage des métadonnées Lakehouse (BigLake)

                              Lakehouse pour Apache Iceberg (catalogue d'exécution Lakehouse) facture le stockage des métadonnées. Le niveau sans frais inclut 1 Gio d'espace de stockage de métadonnées par mois.

                              À partir de

                              0,04 $

                              par Gio et par mois

                              Accès aux métadonnées Lakehouse (BigLake)

                              Opérations de classe A : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations d'écriture, de mise à jour, de liste, de création et de configuration, avec un quota sans frais de 5 000 opérations par mois inclus.

                              À partir de

                              6,00 $

                              par million d'opérations

                              Opérations de classe B : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations de lecture, de récupération et de suppression, avec un quota sans frais de 50 000 opérations par mois inclus.

                              À partir de

                              0,90 $

                              par million d'opérations

                              Fonctionnement des tarifs de lakehouse (BigLake)

                              Les tarifs de Lakehouse (BigLake) sont basés sur la gestion des tables, le stockage des métadonnées et l'accès aux métadonnées.

                              Gestion des tables Lakehouse (BigLake)

                              Description

                              Ressources de calcul permettant de gérer les tables Lakehouse (BigLake) lors de l'optimisation automatique du stockage des tables

                              Prix (USD)

                              Starting at

                              0,12 $

                              par heure d'unités de calcul de données

                              Stockage des métadonnées Lakehouse (BigLake)

                              Description

                              Lakehouse pour Apache Iceberg (catalogue d'exécution Lakehouse) facture le stockage des métadonnées. Le niveau sans frais inclut 1 Gio d'espace de stockage de métadonnées par mois.

                              Prix (USD)

                              Starting at

                              0,04 $

                              par Gio et par mois

                              Accès aux métadonnées Lakehouse (BigLake)

                              Description

                              Opérations de classe A : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations d'écriture, de mise à jour, de liste, de création et de configuration, avec un quota sans frais de 5 000 opérations par mois inclus.

                              Prix (USD)

                              Starting at

                              6,00 $

                              par million d'opérations

                              Opérations de classe B : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations de lecture, de récupération et de suppression, avec un quota sans frais de 50 000 opérations par mois inclus.

                              Description

                              Starting at

                              0,90 $

                              par million d'opérations

                              Simulateur de coût

                              Estimez vos coûts Lakehouse mensuels (l'estimation inclut les tarifs et les frais spécifiques à une région).

                              Devis personnalisé

                              Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.

                              Commencer votre démonstration de faisabilité

                              Démarrer un essai sans frais

                              Vous avez un projet volumineux ?

                              Tables Apache Iceberg entièrement gérées

                              Utiliser le catalogue Apache Iceberg REST

                              Interroger des données Apache Iceberg

                              Google Cloud