BigQuery의 테이블과 함께 BigQuery 메타스토어 사용

이 문서에서는 BigQuery 테이블 및 Spark에서 BigQuery 메타스토어를 사용하는 방법을 설명합니다.

BigQuery 메타스토어를 사용하면 표준(기본 제공) 테이블, Apache Spark Iceberg용 BigQuery 테이블, BigQuery의 BigLake 외부 테이블을 만들고 사용할 수 있습니다.

시작하기 전에

  1. Google Cloud 프로젝트에 결제를 사용 설정합니다. 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.
  2. BigQuery 및 Dataproc API를 사용 설정합니다.

    API 사용 설정

  3. 선택사항: BigQuery 메타스토어의 작동 방식과 이를 사용해야 하는 이유를 알아봅니다.

필요한 역할

BigQuery Metastore를 메타데이터 저장소로 사용하여 Spark 및 Dataproc를 사용하는 데 필요한 권한을 얻으려면 관리자에게 다음 IAM 역할을 부여해 달라고 요청하세요.

역할 부여에 대한 자세한 내용은 프로젝트, 폴더, 조직에 대한 액세스 관리를 참조하세요.

커스텀 역할이나 다른 사전 정의된 역할을 통해 필요한 권한을 얻을 수도 있습니다.

테이블에 연결

  1. Google Cloud 콘솔에서 데이터 세트를 만듭니다.

    CREATE SCHEMA `PROJECT_ID`.DATASET_NAME;

    다음을 바꿉니다.

    • PROJECT_ID: 데이터 세트를 만드는 Google Cloud 프로젝트의 ID입니다.
    • DATASET_NAME: 데이터 세트의 이름입니다.
  2. Cloud Resource Connection을 만듭니다.

  3. 표준 BigQuery 테이블을 만듭니다.

    CREATE TABLE `PROJECT_ID`.DATASET_NAME.TABLE_NAME (name STRING,id INT64);

    다음을 바꿉니다.

    • TABLE_NAME: 테이블 이름입니다.
  4. 표준 BigQuery 테이블에 데이터를 삽입합니다.

    INSERT INTO `PROJECT_ID`.DATASET_NAME.TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
  5. Apache Iceberg용 BigQuery 테이블을 만듭니다.

    예를 들어 테이블을 만들려면 다음 CREATE 문을 실행합니다.

    CREATE TABLE `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME(
    name STRING,id INT64
    )
    WITH CONNECTION `CONNECTION_NAME`
    OPTIONS (
    file_format = 'PARQUET',
    table_format = 'ICEBERG',
    storage_uri = 'STORAGE_URI');

    다음을 바꿉니다.

    • ICEBERG_TABLE_NAME: Iceberg 테이블의 이름입니다. 예를 들면 iceberg_managed_table입니다.
    • CONNECTION_NAME: 연결의 이름 이전 단계에서 만들었습니다. 예를 들면 myproject.us.myconnection입니다.
    • STORAGE_URI: 정규화된 Cloud Storage URI입니다. 예를 들면 gs://mybucket/table입니다.
  6. Apache Iceberg의 BigQuery 테이블에 데이터를 삽입합니다.

    INSERT INTO `PROJECT_ID`.DATASET_NAME.ICEBERG_TABLE_NAME VALUES ('test_name1', 123),('test_name2', 456),('test_name3', 789);
  7. 읽기 전용 Iceberg 테이블을 만듭니다.

    예를 들어 읽기 전용 Iceberg 테이블을 만들려면 다음 CREATE 문을 실행합니다.

    CREATE OR REPLACE EXTERNAL TABLE  `PROJECT_ID`.DATASET_NAME.READONLY_ICEBERG_TABLE_NAME
    WITH CONNECTION `CONNECTION_NAME`
    OPTIONS (
      format = 'ICEBERG',
      uris =
        ['BUCKET_PATH'],
      require_partition_filter = FALSE);

    다음을 바꿉니다.

    • READONLY_ICEBERG_TABLE_NAME: 읽기 전용 테이블의 이름입니다.
    • BUCKET_PATH: 외부 테이블의 데이터가 포함된 Cloud Storage 버킷 경로(['gs://bucket_name/[folder_name/]file_name'] 형식)
  8. PySpark에서 표준 테이블, 관리형 Iceberg 테이블, 읽기 전용 Iceberg 테이블을 쿼리합니다.

    from pyspark.sql import SparkSession
    
    # Create a spark session
    spark = SparkSession.builder \
    .appName("BigQuery Metastore Iceberg") \
    .config("spark.sql.catalog.CATALOG_NAME", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.CATALOG_NAME.catalog-impl", "org.apache.iceberg.gcp.bigquery.BigQueryMetastoreCatalog") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp_project", "PROJECT_ID") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp_location", "LOCATION") \
    .config("spark.sql.catalog.CATALOG_NAME.warehouse", "WAREHOUSE_DIRECTORY") \
    .getOrCreate()
    spark.conf.set("viewsEnabled","true")
    
    # Use the bqms_catalog
    spark.sql("USE `CATALOG_NAME`;")
    spark.sql("USE NAMESPACE DATASET_NAME;")
    
    # Configure spark for temp results
    spark.sql("CREATE namespace if not exists MATERIALIZATION_NAMESPACE");
    spark.conf.set("materializationDataset","MATERIALIZATION_NAMESPACE")
    
    # List the tables in the dataset
    df = spark.sql("SHOW TABLES;")
    df.show();
    
    # Query a standard BigQuery table
    sql = """SELECT * FROM DATASET_NAME.TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()
    
    # Query a BigQuery Managed Apache Iceberg table
    sql = """SELECT * FROM DATASET_NAME.ICEBERG_TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()
    
    # Query a BigQuery Readonly Apache Iceberg table
    sql = """SELECT * FROM DATASET_NAME.READONLY_ICEBERG_TABLE_NAME"""
    df = spark.read.format("bigquery").load(sql)
    df.show()

    다음을 바꿉니다.

    • WAREHOUSE_DIRECTORY: 데이터 웨어하우스가 포함된 Cloud Storage 폴더의 URI입니다.
    • CATALOG_NAME: 사용 중인 카탈로그의 이름입니다.
    • MATERIALIZATION_NAMESPACE: 임시 결과를 저장하기 위한 네임스페이스입니다.
  9. 서버리스 Spark를 사용하여 PySpark 스크립트를 실행합니다.

    gcloud dataproc batches submit pyspark SCRIPT_PATH \
      --version=2.2 \
      --project=PROJECT_ID \
      --region=REGION \
      --deps-bucket=YOUR_BUCKET \
      --jars=https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-spark-runtime-3.5_2.12/1.5.2/iceberg-spark-runtime-3.5_2.12-1.5.2.jar,gs://spark-lib/bigquery/iceberg-bigquery-catalog-1.5.2-1.0.0-beta.jar

    다음을 바꿉니다.

    • SCRIPT_PATH: 일괄 작업에서 사용하는 스크립트의 경로입니다.
    • PROJECT_ID: 일괄 작업을 실행할 Google Cloud 프로젝트의 ID입니다.
    • REGION: 워크로드가 실행되는 리전입니다.
    • YOUR_BUCKET: 워크로드 종속 항목을 업로드할 Cloud Storage 버킷의 위치입니다. 버킷의 gs:// URI 접두사는 필요하지 않습니다. 버킷 경로 또는 버킷 이름(예: mybucketname1)을 지정할 수 있습니다.

다음 단계