Utiliser le métastore BigQuery avec des procédures stockées Spark
.Ce document explique comment utiliser les procédures stockées Apache Spark avec le métastore BigQuery.
Avant de commencer
- Activez la facturation pour votre projet Google Cloud . Découvrez comment vérifier si la facturation est activée sur un projet.
Activez les API BigQuery et Dataflow.
(Facultatif) En savoir plus sur les éléments suivants :
- Découvrez le fonctionnement du métastore BigQuery et pourquoi vous devriez l'utiliser.
- Découvrez le fonctionnement des procédures stockées BigQuery Spark et effectuez-les avant de commencer les tâches.
Rôles requis
Pour utiliser des procédures stockées Spark, consultez les rôles requis pour les procédures stockées et accordez les rôles nécessaires.
Pour obtenir les autorisations nécessaires pour utiliser Spark et les procédures stockées avec le métastore BigQuery en tant que magasin de métadonnées, demandez à votre administrateur de vous accorder les rôles IAM suivants:
-
Créez des tables Metastore BigQuery dans Spark :
-
Éditeur de données BigQuery (
roles/bigquery.dataEditor
) sur le compte de service de connexion Spark du projet -
Administrateur des objets de l'espace de stockage (
roles/storage.objectAdmin
) sur le compte de service de connexion Spark du projet
-
Éditeur de données BigQuery (
-
Interroger les tables Metastore BigQuery dans BigQuery :
-
Lecteur de données BigQuery (
roles/bigquery.dataViewer
) sur le projet -
Utilisateur BigQuery (
roles/bigquery.user
) sur le projet -
Lecteur des objets de l'espace de stockage (
roles/storage.objectViewer
) sur le projet
-
Lecteur de données BigQuery (
Pour en savoir plus sur l'attribution de rôles, consultez la page Gérer l'accès aux projets, aux dossiers et aux organisations.
Vous pouvez également obtenir les autorisations requises via des rôles personnalisés ou d'autres rôles prédéfinis.
Créer et exécuter une procédure stockée
L'exemple suivant montre comment créer et exécuter une procédure stockée avec le métastore BigQuery.
Accédez à la page BigQuery.
Dans l'éditeur de requête, ajoutez l'exemple de code suivant pour l'instruction
CREATE PROCEDURE
.CREATE OR REPLACE PROCEDURE `PROJECT_ID.BQ_DATASET_ID.PROCEDURE_NAME`() WITH CONNECTION `PROJECT_ID.REGION.SPARK_CONNECTION_ID` OPTIONS (engine='SPARK', runtime_version='1.1', properties=[("spark.sql.catalog.CATALOG_NAME.warehouse", "WAREHOUSE_DIRECTORY"), ("spark.sql.catalog.CATALOG_NAME.gcp_location", "LOCATION"), ("spark.sql.catalog.CATALOG_NAME.gcp_project", "PROJECT_ID"), ("spark.sql.catalog.CATALOG_NAME", "org.apache.iceberg.spark.SparkCatalog"), ("spark.sql.catalog.CATALOG_NAME.catalog-impl", "org.apache.iceberg.gcp.bigquery.BigQueryMetastoreCatalog"), ("spark.jars.packages", "org.apache.iceberg:iceberg-spark-runtime-3.3_2.12:1.5.2")], jar_uris=["gs://spark-lib/bigquery/iceberg-bigquery-catalog-1.5.2-1.0.0-beta.jar"]) LANGUAGE python AS R""" from pyspark.sql import SparkSession spark = SparkSession \ .builder \ .appName("BigQuery metastore Iceberg") \ .getOrCreate() spark.sql("USE CATALOG_NAME;") spark.sql("CREATE NAMESPACE IF NOT EXISTS NAMESPACE_NAME;") spark.sql("USE NAMESPACE_NAME;") spark.sql("CREATE TABLE TABLE_NAME (id int, data string) USING ICEBERG LOCATION 'WAREHOUSE_DIRECTORY'") spark.sql("DESCRIBE TABLE_NAME;") spark.sql("INSERT INTO TABLE_NAME VALUES (1, \"first row\");") spark.sql("SELECT * from TABLE_NAME;") spark.sql("ALTER TABLE TABLE_NAME ADD COLUMNS (newDoubleCol double);") spark.sql("DESCRIBE TABLE_NAME;") """; CALL `PROJECT_ID.BQ_DATASET_ID.PROCEDURE_NAME`();
Remplacez les éléments suivants :
PROJECT_ID
: ID de votre projet Google Cloud .BQ_DATASET_ID
: ID de l'ensemble de données BigQuery contenant la procédure.PROCEDURE_NAME
: nom de la procédure que vous créez ou remplacez.REGION
: emplacement de votre connexion Spark.LOCATION
: emplacement de vos ressources BigQuery.SPARK_CONNECTION_ID
: ID de votre connexion Spark.CATALOG_NAME
: nom du catalogue que vous utilisez.WAREHOUSE_DIRECTORY
: URI du dossier Cloud Storage contenant votre entrepôt de données.NAMESPACE_NAME
: espace de noms que vous utilisez.
Étape suivante
- Configurez les fonctionnalités facultatives du métastore BigQuery.
- Afficher et interroger des tables à partir de Spark dans la console BigQuery