외부 파티션 데이터 쿼리

BigQuery는 기본 하이브 파티션 나누기 레이아웃을 사용하여 Cloud Storage에 저장되는 Avro, Parquet, ORC, JSON, CSV 형식의 외부에서 파티션을 나눈 데이터 쿼리를 지원합니다. 하이브 파티션 나누기 지원은 테이블 정의 파일에서 적절한 옵션을 설정하여 사용할 수 있습니다. Cloud Console, bq 명령줄 도구, BigQuery API를 사용하여 테이블을 만들고 수정할 수 있습니다.

관리되는 파티션을 나눈 테이블 쿼리에 대한 자세한 안내는 파티션을 나눈 테이블 소개를 참조하세요.

제한사항

  • 하이브 파티션 나누기 지원은 모든 URI에 대해 파티션 인코딩 바로 앞에서 끝나는 공통의 소스 URI 프리픽스를 가정하여 구축됩니다(예: gs://BUCKET/PATH_TO_TABLE/).
  • 파티션을 나눈 하이브 테이블의 디렉터리 구조는 동일한 파티션 나누기 키가 동일한 순서로 표시된다고 가정하며, 이때 파티션 키는 테이블당 최대 10개입니다.
  • 데이터는 기본 하이브 파티션 나누기 레이아웃을 따라야 합니다.
  • 기본 파일에 있는 하이브 파티션 나누기 키와 열은 겹치지 않아야 합니다.
  • Cloud Storage에 저장된 외부 데이터 소스 쿼리에 대한 모든 제한사항이 적용됩니다.
  • 표준 SQL에 대해서만 지원됩니다.

지원되는 데이터 레이아웃

데이터는 기본 하이브 파티션 나누기 레이아웃을 따라야 합니다. 예를 들어 다음 파일의 키-값 쌍은 기본 레이아웃을 따라 = 기호를 구분자로 사용하는 디렉터리로 구성되어 있으며, 파티션 키의 순서는 항상 동일합니다.

gs://myBucket/myTable/dt=2019-10-31/lang=en/foo
gs://myBucket/myTable/dt=2018-10-31/lang=fr/bar

이 예시에서 공통 소스 URI 프리픽스는 gs://myBucket/myTable입니다.

지원되지 않는 데이터 레이아웃

파티션 키 이름이 디렉터리 경로에 인코딩되어 있지 않으면 파티션 스키마 감지가 실패합니다. 예를 들어 다음과 같이 파티션 키 이름이 인코딩되지 않은 경로를 가정해 보겠습니다.

gs://myBucket/myTable/2019-10-31/en/foo

파일의 스키마 순서가 일관되지 않으면 감지가 실패합니다. 예를 들어 다음의 두 파일은 파티션 키 인코딩이 반전된 경우입니다.

gs://myBucket/myTable/dt=2019-10-31/lang=en/foo
gs://myBucket/myTable/lang=fr/dt=2018-10-31/bar

이러한 파일의 경우 파티션 스키마 감지가 실패합니다.

파티션 스키마 감지 모드

하이브 파티션 키는 Cloud Storage에서 데이터를 쿼리할 때 일반 열로 표시됩니다. BigQuery는 다음 세 가지 모드의 하이브 파티션 스키마 감지를 지원합니다.

  • AUTO: 키 이름과 유형이 자동 감지됩니다. STRING, INTEGER, DATE, TIMESTAMP와 같은 유형이 감지될 수 있습니다.
  • STRINGS: 키 이름이 STRING 유형으로 자동 변환됩니다.
  • CUSTOM: 파티션 키 스키마는 소스 URI 프리픽스에 지정된 대로 인코딩됩니다.

커스텀 파티션 키 스키마 제공

CUSTOM 스키마를 사용하려면 소스 URI 프리픽스 필드에 스키마를 지정해야 합니다. CUSTOM 스키마를 사용하면 각 파티션 키의 유형을 지정할 수 있습니다. 값은 지정된 유형에 유효하도록 파싱해야 하며, 그렇지 않으면 쿼리가 실패합니다.

예를 들어 source_uri_prefix 플래그를 gs://myBucket/myTable/{dt:DATE}/{val:STRING}로 설정하면 BigQuery가 val을 STRING으로, dt를 DATE로 처리하고, gs://myBucket/myTable을 일치하는 파일의 소스 URI 프리픽스로 사용합니다.

파티션 프루닝

BigQuery는 가능한 경우 파티션 키의 쿼리 조건자를 사용하여 파티션을 프루닝합니다. 이는 BigQuery가 불필요한 파일을 읽는 것을 방지하고 성능을 향상하는 데 도움이 됩니다.

쿼리에서 파티션 키에 조건자 필터 필요

외부에서 파티션을 나눈 테이블을 만들 때 HivePartitioningOptions에서 requirePartitionFilter 옵션을 사용 설정하여 파티션 키에 조건부 필터를 사용하도록 요구할 수 있습니다.

이 옵션이 사용 설정된 경우 WHERE 절을 지정하지 않고 외부에서 파티션을 나눈 테이블을 쿼리하려면 Cannot query over table <table_name> without a filter over column(s) <partition key names> that can be used for partition elimination과 같은 오류가 발생합니다.

파티션을 나눈 하이브 데이터에 대한 외부 테이블 만들기

다음과 같은 방법으로 파티션을 나눈 하이브 데이터의 외부 테이블을 만들 수 있습니다.

  • Cloud Console 사용
  • bq 명령줄 도구 사용
  • 클라이언트 라이브러리 사용

Console

  1. Cloud Console에서 BigQuery 페이지를 엽니다.

    BigQuery 페이지로 이동

  2. 탐색기 패널에서 프로젝트를 확장하고 데이터 세트를 선택합니다.

  3. 테이블 만들기를 클릭하여 새 테이블을 만듭니다.

  4. 테이블 만들기 페이지의 소스 섹션에서 다음을 수행합니다.

    1. 다음 항목으로 테이블 만들기 드롭다운 목록에서 Cloud Storage를 선택합니다.
    2. Cloud Storage 버킷에서 파일 선택 필드에 와일드 카드 형식을 사용하여 Cloud Storage 폴더 경로를 입력합니다. 예를 들면 my_bucket/my_files*입니다.
    3. 파일 형식 드롭다운 목록에서 파일 형식을 선택합니다.
    4. 소스 데이터 파티션 나누기 체크박스를 선택합니다.
    5. 소스 URI 프리픽스 선택 필드에 Cloud Storage URI 프리픽스를 입력합니다. 예를 들면 gs://my_bucket/my_files입니다.
    6. 파티션 추론 모드를 선택합니다. 직접 제공을 선택한 경우 파티션 키의 스키마 정보를 입력합니다.
    7. 선택사항: 이 테이블에 대한 모든 쿼리가 조건자 필터를 사용하도록 하려면 파티션 필터 필요를 선택합니다. 자세한 내용은 쿼리에서 파티션 키에 조건자 필터 필요를 참조하세요.
  5. 테이블 만들기 페이지의 대상 섹션에서 다음을 수행합니다.

    1. 프로젝트 이름과 데이터 세트 이름을 선택합니다.
    2. 테이블 유형 드롭다운 목록에서 외부 테이블을 선택합니다.
    3. 테이블 이름 필드에 외부 테이블의 이름을 입력합니다.
  6. 테이블 만들기 페이지의 스키마 섹션에서 스키마 정보를 입력합니다. BigQuery는 일부 형식에 대해 스키마 자동 감지를 지원합니다. 자세한 내용은 스키마 자동 감지 사용을 참조하세요.

  7. 테이블 만들기를 클릭합니다.

bq

  • 자동 파티션 키 감지를 설정하려면 --hive_partitioning_mode 플래그를 AUTO로 설정합니다. 예를 들면 다음과 같습니다.
bq mkdef --source_format=ORC --hive_partitioning_mode=AUTO \
--hive_partitioning_source_uri_prefix=GCS_URI_SHARED_PREFIX \
GCS_URIS > TABLE_DEF_FILE
  • 문자열 유형의 파티션 키 감지를 설정하려면 --hive_partitioning_mode 플래그를 STRINGS로 설정합니다. 예를 들면 다음과 같습니다.
bq mkdef --source_format=PARQUET --hive_partitioning_mode=STRINGS \
--hive_partitioning_source_uri_prefix=GCS_URI_SHARED_PREFIX \
GCS_URIS > TABLE_DEF_FILE
  • --source_uri_prefix 플래그를 사용하여 커스텀 파티션 키 스키마를 지정하려면 --hive_partitioning_mode 플래그를 CUSTOM로 설정합니다. 예를 들면 다음과 같습니다.
bq mkdef --source_format=NEWLINE_DELIMITED_JSON --hive_partitioning_mode=CUSTOM \
--hive_partitioning_source_uri_prefix=GCS_URI_SHARED_PREFIX/CUSTOM_SCHEMA_ENCODING \
GCS_URIS FILE_SCHEMA > TABLE_DEF_FILE

--hive_partitioning_source_uri_prefix 플래그의 경우 다음과 같이 <var>GCS_URI_SHARED_PREFIX</var> 부분 바로 뒤의 인수 <var>CUSOM_SCHEMA_ENCODING</var> 부분을 지정합니다.

GCS_URI_SHARED_PREFIX/{KEY1:TYPE1}/{KEY2:TYPE2}/...

예를 들면 다음과 같습니다.

--hive_partitioning_source_uri_prefix=gs://myBucket/myTable/{dt:DATE}/{val:STRING}

  • 쿼리 시 조건자 필터를 사용하도록 하려면 bq mkdef 명령어에 --require_hive_partition_filter=True를 추가합니다. 예:
bq mkdef --source_format=ORC --hive_partitioning_mode=AUTO \
--hive_partitioning_source_uri_prefix=GCS_URI_SHARED_PREFIX \
--require_hive_partition_filter=True \
GCS_URIS > TABLE_DEF_FILE

API

BigQuery API를 사용하여 하이브 파티션 나누기를 설정하려면 테이블 정의 파일을 만들 때 ExternalDataConfiguration 객체에 hivePartitioningOptions 객체를 포함합니다.

hivePartitioningOptions.mode 필드를 CUSTOM로 설정한 경우, hivePartitioningOptions.sourceUriPrefix 필드에 파티션 키 스키마를 인코딩해야 합니다(예: gs://BUCKET/PATH_TO_TABLE/{KEY1:TYPE1}/{KEY2:TYPE2}/...).

쿼리 시 조건자 필터를 사용하도록 하려면 hivePartitioningOptions.requirePartitionFilter 필드를 true로 설정합니다.

자바

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 자바 설정 안내를 따르세요. 자세한 내용은 BigQuery 자바 API 참조 문서를 확인하세요.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.ExternalTableDefinition;
import com.google.cloud.bigquery.FormatOptions;
import com.google.cloud.bigquery.HivePartitioningOptions;
import com.google.cloud.bigquery.TableId;
import com.google.cloud.bigquery.TableInfo;

// Sample to create external table using hive partitioning
public class SetHivePartitioningOptions {

  public static void main(String[] args) {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "gs://cloud-samples-data/bigquery/hive-partitioning-samples/customlayout/*";
    String sourceUriPrefix =
        "gs://cloud-samples-data/bigquery/hive-partitioning-samples/customlayout/{pkey:STRING}/";
    setHivePartitioningOptions(datasetName, tableName, sourceUriPrefix, sourceUri);
  }

  public static void setHivePartitioningOptions(
      String datasetName, String tableName, String sourceUriPrefix, String sourceUri) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      // Configuring partitioning options
      HivePartitioningOptions hivePartitioningOptions =
          HivePartitioningOptions.newBuilder()
              .setMode("CUSTOM")
              .setRequirePartitionFilter(true)
              .setSourceUriPrefix(sourceUriPrefix)
              .build();

      TableId tableId = TableId.of(datasetName, tableName);
      ExternalTableDefinition customTable =
          ExternalTableDefinition.newBuilder(sourceUri, FormatOptions.parquet())
              .setAutodetect(true)
              .setHivePartitioningOptions(hivePartitioningOptions)
              .build();
      bigquery.create(TableInfo.of(tableId, customTable));
      System.out.println("External table created using hivepartitioningoptions");
    } catch (BigQueryException e) {
      System.out.println("External table was not created" + e.toString());
    }
  }
}