Stockage, gouvernance et performances d'entreprise pour créer des cas d'utilisation d'IA évolutifs, analytiques, opérationnels et en temps réel sur un lakehouse ouvert, multimodal et unifié dans le cloud.
Fonctionnalités
Les tables Apache Iceberg, gérées à l'aide du catalogue REST Iceberg de lakehouse, offrent une interopérabilité en lecture et en écriture entre BigQuery et Google Cloud Managed Service pour Apache Spark, ainsi qu'avec les moteurs OSS compatibles avec Iceberg tels que Spark, Trino et Flink, et désormais avec des moteurs tiers comme Snowflake et Databricks (en preview). Cela vous permet de connecter facilement vos tables Iceberg directement à des moteurs tels que BigQuery et Spark géré par Google afin d'accélérer vos charges de travail d'IA.
Exploitez l'interconnexion et la mise en cache multicloud (bêta) pour accéder rapidement et avec une faible latence aux données S3 Iceberg. Exécutez BigQuery, Spark et Gemini Enterprise via des jobs d'API d'analyse conversationnelle sur des données AWS avec des caractéristiques de rapport prix/performances comparables à celles des solutions de plate-forme de données natives. De plus, la nouvelle fédération de catalogues d'exécution Lakehouse (en preview) unifie votre écosystème de manière transparente, permettant à BigQuery et à Google Managed Spark de découvrir et d'analyser les données d'entreprise dans Snowflake, Databricks et AWS Glue.
L'exécution vectorisée améliorée de BigQuery est désormais activée par défaut pour les tables Lakehouse Iceberg REST Catalog, ainsi que pour les tables Iceberg et Parquet du catalogue BigQuery. Déchargez les tâches de maintenance Iceberg courantes, comme le compactage, le clustering et la récupération de mémoire, directement sur Google Lakehouse. Les nouvelles fonctionnalités automatisées, y compris la gestion des tables, le partitionnement, le clustering et l'optimisation basée sur l'historique (disponibilité générale pour les tables Iceberg dans le catalogue BigQuery ; aperçu pour le catalogue REST), améliorent le rapport prix/performances sans aucune surcharge manuelle.
Générez des insights en temps réel avec Iceberg à l'aide du streaming BigQuery pour une ingestion à haut débit sans latence de lecture. Créez des pipelines de traitement complexes avec des transactions à plusieurs instructions et la réplication des données modifiées BigQuery vers les tables Iceberg (disponible en version DG pour le catalogue BigQuery et en version preview pour le catalogue REST). Débloquez les analyses multimodales, vectorielles et de graphes en unissant les données structurées et non structurées à l'aide de BigQueryObjectRefs. Boostez les charges de travail de data science Spark avec Lightning Engine et profitez de performances jusqu'à 4,5 fois supérieures.
Alimentez les agents d'IA avec des données transactionnelles en temps réel. Diffusez des données opérationnelles depuis Spanner, AlloyDB et Cloud SQL dans BigQuery et des tables Iceberg gérées pour une analyse instantanée, et renvoyez ces insights analytiques directement dans AlloyDB ou Spanner pour les exploiter avec une latence inférieure à la milliseconde et un nombre élevé de requêtes par seconde. Bénéficiez d'une gouvernance unifiée avec la traçabilité, le profilage et la qualité des données grâce à l'intégration de Knowledge Catalog (anciennement Dataplex). Mappez les données transactionnelles, non structurées et Iceberg à votre logique métier, ce qui permet à vos agents d'obtenir le contexte approfondi dont ils ont besoin pour fournir des résultats précis, fiables et entièrement régis.
Fonctionnement
Le catalogue REST Lakehouse sert de hub central pour vos tables Iceberg. Il offre un accès universel en lecture/écriture dans BigQuery, Managed Service pour Apache Spark, les moteurs OSS et les partenaires, en connectant vos données de manière transparente à n'importe quel moteur pour accélérer l'IA.
Modernisez-vous en adoptant une architecture de lakehouse ouverte et unifiée
Modernisez votre infrastructure de données avec le lakehouse de Google. Migrez l'ancien Hadoop vers Cloud Storage sans serveur et unifiez les données multicloud en interrogeant Iceberg et Delta Lake directement dans BigQuery. Le catalogue REST Iceberg Lakehouse élimine les silos en offrant un environnement d'exécution interopérable pour Spark, Trino et Flink. Grâce à la prise en charge du catalogue Hive, vous pouvez facilement moderniser les charges de travail Hadoop vers Iceberg.
Modernisez-vous en adoptant une architecture de lakehouse ouverte et unifiée
Modernisez votre infrastructure de données avec le lakehouse de Google. Migrez l'ancien Hadoop vers Cloud Storage sans serveur et unifiez les données multicloud en interrogeant Iceberg et Delta Lake directement dans BigQuery. Le catalogue REST Iceberg Lakehouse élimine les silos en offrant un environnement d'exécution interopérable pour Spark, Trino et Flink. Grâce à la prise en charge du catalogue Hive, vous pouvez facilement moderniser les charges de travail Hadoop vers Iceberg.
Partage en lecture/écriture fluide entre BigQuery et les moteurs OSS
Utilisez vos pipelines Iceberg existants et lisez ou écrivez facilement dans ces tables à l'aide de BigQuery ou de Spark géré, tout en modernisant facilement vos opérations grâce aux fonctionnalités avancées de BigQuery. Optimisez la data science en exécutant Spark ETL et BigQuery AI sur les mêmes tables Iceberg, sans déplacer les données. Créez des agents d'analyse conversationnelle dans BigQuery qui fonctionnent avec vos données dans S3.
Partage en lecture/écriture fluide entre BigQuery et les moteurs OSS
Utilisez vos pipelines Iceberg existants et lisez ou écrivez facilement dans ces tables à l'aide de BigQuery ou de Spark géré, tout en modernisant facilement vos opérations grâce aux fonctionnalités avancées de BigQuery. Optimisez la data science en exécutant Spark ETL et BigQuery AI sur les mêmes tables Iceberg, sans déplacer les données. Créez des agents d'analyse conversationnelle dans BigQuery qui fonctionnent avec vos données dans S3.
Analyse de données multimodales et workflows d'IA accélérés
Améliorez l'analyse multimodale avec BigQuery AI en combinant des tables Iceberg structurées avec des données non structurées à l'aide de BigQuery ObjectRefs pour l'inférence en SQL unique. Entraînez des modèles de plate-forme d'agent Gemini Enterprise à l'aide de la fonctionnalité de voyage dans le temps pour déboguer la dérive des données Fédérez des catalogues REST mondiaux dans un maillage de données unifié, analysez des journaux à grande échelle de manière abordable et créez des modèles directement dans des notebooks intégrés pour accélérer vos workflows d'IA.
Analyse de données multimodales et workflows d'IA accélérés
Améliorez l'analyse multimodale avec BigQuery AI en combinant des tables Iceberg structurées avec des données non structurées à l'aide de BigQuery ObjectRefs pour l'inférence en SQL unique. Entraînez des modèles de plate-forme d'agent Gemini Enterprise à l'aide de la fonctionnalité de voyage dans le temps pour déboguer la dérive des données Fédérez des catalogues REST mondiaux dans un maillage de données unifié, analysez des journaux à grande échelle de manière abordable et créez des modèles directement dans des notebooks intégrés pour accélérer vos workflows d'IA.
Exécuter des charges de travail de data science dans des environnements de développement
Profitez d'une expérience Spark fluide. Exécutez SQL, Spark et Python sur une seule copie des données Iceberg à l'aide d'IDE unifiés. La nouvelle extension Antigravity VS Code agit comme un partenaire d'IA pour générer des pipelines, déboguer du code et automatiser le CI/CD à partir du langage naturel. De plus, notre moteur vectorisé Lightning Engine accélère l'exécution de Spark jusqu'à 4,5 fois, sans nécessiter de modification du code.
Exécuter des charges de travail de data science dans des environnements de développement
Profitez d'une expérience Spark fluide. Exécutez SQL, Spark et Python sur une seule copie des données Iceberg à l'aide d'IDE unifiés. La nouvelle extension Antigravity VS Code agit comme un partenaire d'IA pour générer des pipelines, déboguer du code et automatiser le CI/CD à partir du langage naturel. De plus, notre moteur vectorisé Lightning Engine accélère l'exécution de Spark jusqu'à 4,5 fois, sans nécessiter de modification du code.
Optimisation des performances avec BigQuery
Exploitez l'évolutivité de BigQuery tout en conservant un stockage flexible. Exécutez des transactions multi-instructions dans BigQuery pour mettre à jour plusieurs tables Iceberg en tant qu'unité atomique unique, ce qui garantit une cohérence de niveau financier. Utilisez les fonctionnalités avancées d'exécution et de partitionnement d'Iceberg dans BigQuery pour créer des tables partitionnées/en cluster qui exploitent l'élagage de blocs pour une exécution des requêtes rapide et économique.
Optimisation des performances avec BigQuery
Exploitez l'évolutivité de BigQuery tout en conservant un stockage flexible. Exécutez des transactions multi-instructions dans BigQuery pour mettre à jour plusieurs tables Iceberg en tant qu'unité atomique unique, ce qui garantit une cohérence de niveau financier. Utilisez les fonctionnalités avancées d'exécution et de partitionnement d'Iceberg dans BigQuery pour créer des tables partitionnées/en cluster qui exploitent l'élagage de blocs pour une exécution des requêtes rapide et économique.
Combinaison de traitement transactionnel et analytique pour l'IA agentique
Alimentez les agents d'IA basés sur les événements en unifiant vos données transactionnelles et analytiques. Automatisez la réplication CDC continue depuis Spanner et AlloyDB directement dans les tables Lakehouse Iceberg. Ensuite, utilisez des requêtes continues SQL pour surveiller ces données en flux, exécuter instantanément l'inférence d'IA et déclencher des actions en aval. Vous obtenez ainsi des renseignements en temps réel pour vos charges de travail opérationnelles les plus critiques.
Combinaison de traitement transactionnel et analytique pour l'IA agentique
Alimentez les agents d'IA basés sur les événements en unifiant vos données transactionnelles et analytiques. Automatisez la réplication CDC continue depuis Spanner et AlloyDB directement dans les tables Lakehouse Iceberg. Ensuite, utilisez des requêtes continues SQL pour surveiller ces données en flux, exécuter instantanément l'inférence d'IA et déclencher des actions en aval. Vous obtenez ainsi des renseignements en temps réel pour vos charges de travail opérationnelles les plus critiques.
Gouvernez votre lakehouse avec Knowledge Catalog
Knowledge Catalog fournit une couche de gouvernance unifiée en détectant automatiquement les tables Iceberg dans Cloud Storage et en enregistrant leurs métadonnées directement dans le catalogue d'exécution de Lakehouse. Cette intégration vous permet de définir des règles de sécurité centralisées qui garantissent un contrôle des accès cohérent au niveau des lignes et des colonnes, à la fois dans BigQuery et dans les moteurs de traitement Open Source.
Gouvernez votre lakehouse avec Knowledge Catalog
Knowledge Catalog fournit une couche de gouvernance unifiée en détectant automatiquement les tables Iceberg dans Cloud Storage et en enregistrant leurs métadonnées directement dans le catalogue d'exécution de Lakehouse. Cette intégration vous permet de définir des règles de sécurité centralisées qui garantissent un contrôle des accès cohérent au niveau des lignes et des colonnes, à la fois dans BigQuery et dans les moteurs de traitement Open Source.
Tarification
| Fonctionnement des tarifs de lakehouse (BigLake) | Les tarifs de Lakehouse (BigLake) sont basés sur la gestion des tables, le stockage des métadonnées et l'accès aux métadonnées. | |
|---|---|---|
| Services et utilisation | Description | Prix (USD) |
Gestion des tables Lakehouse (BigLake) | Ressources de calcul permettant de gérer les tables Lakehouse (BigLake) lors de l'optimisation automatique du stockage des tables | À partir de 0,12 $ par heure d'unités de calcul de données |
Stockage des métadonnées Lakehouse (BigLake) | Lakehouse pour Apache Iceberg (catalogue d'exécution Lakehouse) facture le stockage des métadonnées. Le niveau sans frais inclut 1 Gio d'espace de stockage de métadonnées par mois. | À partir de 0,04 $ par Gio et par mois |
Accès aux métadonnées Lakehouse (BigLake) | Opérations de classe A : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations d'écriture, de mise à jour, de liste, de création et de configuration, avec un quota sans frais de 5 000 opérations par mois inclus. | À partir de 6,00 $ par million d'opérations |
Opérations de classe B : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations de lecture, de récupération et de suppression, avec un quota sans frais de 50 000 opérations par mois inclus. | À partir de 0,90 $ par million d'opérations | |
Fonctionnement des tarifs de lakehouse (BigLake)
Les tarifs de Lakehouse (BigLake) sont basés sur la gestion des tables, le stockage des métadonnées et l'accès aux métadonnées.
Gestion des tables Lakehouse (BigLake)
Ressources de calcul permettant de gérer les tables Lakehouse (BigLake) lors de l'optimisation automatique du stockage des tables
Starting at
0,12 $
par heure d'unités de calcul de données
Stockage des métadonnées Lakehouse (BigLake)
Lakehouse pour Apache Iceberg (catalogue d'exécution Lakehouse) facture le stockage des métadonnées. Le niveau sans frais inclut 1 Gio d'espace de stockage de métadonnées par mois.
Starting at
0,04 $
par Gio et par mois
Accès aux métadonnées Lakehouse (BigLake)
Opérations de classe A : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations d'écriture, de mise à jour, de liste, de création et de configuration, avec un quota sans frais de 5 000 opérations par mois inclus.
Starting at
6,00 $
par million d'opérations
Opérations de classe B : frais d'accès aux métadonnées Lakehouse (BigLake) pour les opérations de lecture, de récupération et de suppression, avec un quota sans frais de 50 000 opérations par mois inclus.
Starting at
0,90 $
par million d'opérations