Cloud Storage에서 Avro 데이터 로드
Avro는 직렬화된 데이터를 같은 파일에서 데이터 스키마와 함께 묶는 오픈소스 데이터 형식입니다.
Cloud Storage에서 Avro 데이터를 로드할 때 새 테이블 또는 파티션에 데이터를 로드하거나 기존 테이블 또는 파티션에 추가하거나 덮어쓸 수 있습니다. BigQuery에 로드한 데이터는 Capacitor용 열 형식(BigQuery의 스토리지 형식)으로 변환됩니다.
Cloud Storage에서 BigQuery 테이블로 데이터를 로드하는 경우 테이블을 포함한 데이터 세트는 Cloud Storage 버킷과 같은 리전이나 멀티 리전 위치에 있어야 합니다.
로컬 파일에서 Avro 데이터를 로드하는 자세한 내용은 로컬 데이터 소스에서 BigQuery로 데이터 로드를 참조하세요.
제한사항
Cloud Storage 버킷에서 BigQuery로 데이터를 로드할 때는 다음과 같은 제한사항이 적용됩니다.
- 데이터 세트 위치가
US
멀티 리전 이외의 값으로 설정되면 Cloud Storage 버킷은 데이터 세트와 동일한 리전에 있거나 동일한 멀티 리전에 포함되어 있어야 합니다. - BigQuery는 외부 데이터 소스의 데이터 일관성을 보장하지 않습니다. 쿼리가 실행되는 동안 기본 데이터가 변경되면 예상치 못한 동작이 발생할 수 있습니다.
- BigQuery는 Cloud Storage 객체 버전 관리를 지원하지 않습니다. Cloud Storage URI에 세대 번호를 포함하면 로드 작업이 실패합니다.
입력 파일 요구사항
BigQuery에 Avro 파일을 로드할 때 resourcesExceeded
오류를 방지하려면 다음 가이드라인을 따르세요.
- 행 크기를 50MB 이하로 유지합니다.
- 행에 많은 배열 필드나 매우 긴 배열 필드가 포함된 경우 배열 값을 별도의 필드로 나눕니다.
시작하기 전에
이 문서의 각 태스크를 수행하는 데 필요한 권한을 사용자에게 제공하는 Identity and Access Management(IAM) 역할을 부여하고 데이터를 저장할 데이터 세트 및 테이블을 만듭니다.
필수 권한
데이터를 BigQuery로 로드하려면 로드 작업을 실행하고 데이터를 BigQuery 테이블과 파티션으로 로드할 수 있는 IAM 권한이 필요합니다. Cloud Storage에서 데이터를 로드할 경우 데이터가 포함된 버킷에 액세스할 수 있는 IAM 권한도 필요합니다.
데이터를 BigQuery로 로드할 수 있는 권한
데이터를 새 BigQuery 테이블이나 파티션으로 로드하거나 기존 테이블 또는 파티션을 추가하거나 덮어쓰려면 다음 IAM 권한이 필요합니다.
bigquery.tables.create
bigquery.tables.updateData
bigquery.tables.update
bigquery.jobs.create
다음과 같이 사전 정의된 각 IAM 역할에는 데이터를 BigQuery 테이블이나 파티션에 로드하기 위해 필요한 권한이 포함되어 있습니다.
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.admin
(bigquery.jobs.create
권한 포함)bigquery.user
(bigquery.jobs.create
권한 포함)bigquery.jobUser
(bigquery.jobs.create
권한 포함)
또한 bigquery.datasets.create
권한이 있으면 만들 데이터 세트에서 로드 작업을 사용하여 테이블을 만들고 업데이트할 수 있습니다.
BigQuery의 IAM 역할과 권한에 대한 자세한 내용은 사전 정의된 역할 및 권한을 참조하세요.
Cloud Storage에서 데이터를 로드할 수 있는 권한
Cloud Storage 버킷에서 데이터를 로드하는 데 필요한 권한을 얻으려면 관리자에게 버킷의 스토리지 관리자(roles/storage.admin
) IAM 역할을 부여해 달라고 요청하세요.
역할 부여에 대한 자세한 내용은 프로젝트, 폴더, 조직에 대한 액세스 관리를 참조하세요.
이 사전 정의된 역할에는 Cloud Storage 버킷에서 데이터를 로드하는 데 필요한 권한이 포함되어 있습니다. 필요한 정확한 권한을 보려면 필수 권한 섹션을 펼치세요.
필수 권한
Cloud Storage 버킷에서 데이터를 로드하려면 다음 권한이 필요합니다.
-
storage.buckets.get
-
storage.objects.get
-
storage.objects.list (required if you are using a URI wildcard)
커스텀 역할이나 다른 사전 정의된 역할을 사용하여 이 권한을 부여받을 수도 있습니다.
데이터 세트 및 테이블 만들기
데이터를 저장하려면 BigQuery 데이터 세트를 만든 다음 해당 데이터 세트 내에 BigQuery 테이블을 만들어야 합니다.
Avro의 장점
Avro는 BigQuery로 데이터를 로드할 때 권장되는 형식입니다. Avro 파일을 로드하면 CSV 및 JSON(줄바꿈으로 구분됨)에 비해 다음과 같은 이점이 있습니다.
- Avro 바이너리 형식:
- 로드가 빠릅니다. 데이터 블록이 압축된 경우에도 데이터를 병렬로 읽을 수 있습니다.
- 유형 설정이나 직렬화가 필요 없습니다.
- ASCII와 같은 다른 형식에서 인코딩 문제가 없으므로 파싱이 간편합니다.
- Avro 파일을 BigQuery로 로드하면 테이블 스키마를 자체 설명적 소스 데이터로부터 자동으로 가져옵니다.
Avro 스키마
Avro 파일을 새 BigQuery 테이블에 로드하면 테이블 스키마를 소스 데이터를 사용하여 자동으로 가져옵니다. BigQuery가 소스 데이터에서 스키마를 검색하면 알파벳순으로 마지막 파일이 사용됩니다.
예를 들어 Cloud Storage에 다음과 같은 Avro 파일이 있습니다.
gs://mybucket/00/ a.avro z.avro gs://mybucket/01/ b.avro
bq 명령줄 도구로 이 명령어를 실행하면 모든 파일(쉼표로 구분된 목록)이 로드되고 스키마가 mybucket/01/b.avro
에서 파생됩니다.
bq load \ --source_format=AVRO \ dataset.table \ "gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
Avro 스키마가 서로 다른 Avro 파일을 여러 개 가져오는 경우, 모든 스키마는 Avro의 스키마 해상도와 호환되어야 합니다.
BigQuery가 스키마를 감지하면 일부 Avro 데이터 유형은 GoogleSQL 구문과 호환되도록 BigQuery 데이터 유형으로 변환됩니다. 자세한 내용은 Avro 변환을 참조하세요.
외부 테이블을 만들기 위한 테이블 스키마를 제공하려면 BigQuery API의referenceFileSchemaUri
속성을 설정하거나 bq 명령줄 도구의 --reference_file_schema_uri
매개변수를 참조 파일의 URL로 설정합니다.
예를 들면 --reference_file_schema_uri="gs://mybucket/schema.avro"
입니다.
Avro 압축
BigQuery는 Avro 파일 콘텐츠에 대해 다음과 같은 압축 코덱을 지원합니다.
Snappy
DEFLATE
새 테이블에 Avro 데이터 로드
Cloud Storage에서 새 BigQuery 테이블로 Avro 데이터를 로드하려면 다음 옵션 중 하나를 선택합니다.
콘솔
Google Cloud 콘솔에서 BigQuery 페이지를 엽니다.
탐색기 패널에서 프로젝트를 확장하고 데이터 세트를 선택합니다.
작업 옵션을 펼치고 열기를 클릭합니다.
세부정보 패널에서 테이블 만들기
를 클릭합니다.테이블 만들기 페이지의 소스 섹션에서 다음을 수행합니다.
다음 항목으로 테이블 만들기에서 Google Cloud Storage를 선택합니다.
소스 필드에서 Cloud Storage URI를 찾아보거나 직접 입력합니다. Google Cloud 콘솔에서는 URI를 여러 개 포함할 수 없지만 와일드 카드는 지원됩니다. Cloud Storage 버킷은 만들려는 테이블이 포함된 데이터 세트와 같은 위치에 있어야 합니다.
파일 형식으로 Avro를 선택합니다.
테이블 만들기 페이지의 대상 섹션에서 다음을 수행합니다.
- 데이터 세트 이름에서 적절한 데이터 세트를 선택합니다.
- 테이블 유형이 기본 테이블로 설정되어 있는지 확인합니다.
- 테이블 이름 필드에 BigQuery에 만들려는 테이블의 이름을 입력합니다.
스키마 섹션은 별도의 설정이 필요하지 않습니다. 스키마는 Avro 파일에서 자체 기술됩니다.
(선택사항) 테이블 파티션을 나누려면 파티션 및 클러스터 설정에서 옵션을 선택합니다. 자세한 내용은 파티션을 나눈 테이블 만들기를 참조하세요.
(선택사항) 파티션 필터에서 파티션 필터 필요 상자를 클릭하여 사용자가 쿼리할 파티션을 지정하는
WHERE
절을 포함하도록 요구합니다. 파티션 필터를 필수항목으로 설정하면 비용을 줄이고 성능을 높일 수 있습니다. 자세한 내용은 파티션을 나눈 테이블 쿼리를 참조하세요. 파티션 없음을 선택한 경우에는 이 옵션을 사용할 수 없습니다.(선택사항) 테이블을 클러스터링하려면 클러스터링 순서 상자에 1~4개의 필드 이름을 입력합니다.
(선택사항) 고급 옵션을 클릭합니다.
- 쓰기 환경설정의 경우 비어 있으면 쓰기를 선택한 상태로 둡니다. 이 옵션은 새 테이블을 만들어 데이터를 로드합니다.
- 알 수 없는 값의 경우 알 수 없는 값 무시를 해제된 상태로 둡니다. 이 옵션은 CSV 및 JSON 파일에만 적용됩니다.
- Cloud Key Management Service 키를 사용하려면 암호화에서 고객 관리 키를 클릭합니다. Google 관리 키 설정을 그대로 두면 BigQuery는 저장 데이터를 암호화합니다.
테이블 만들기를 클릭합니다.
SQL
LOAD DATA
DDL 문을 사용합니다.
다음 예시는 Avro 파일을 새 테이블인 mytable
에 로드합니다.
Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.
쿼리 편집기에서 다음 문을 입력합니다.
LOAD DATA OVERWRITE mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
실행을 클릭합니다.
쿼리를 실행하는 방법에 대한 자세한 내용은 대화형 쿼리 실행을 참조하세요.
bq
bq load
명령어를 사용하고, --source_format
플래그로 AVRO
를 지정하고, Cloud Storage URI를 포함합니다.
단일 URI, 쉼표로 구분된 URI 목록 또는 와일드 카드가 포함된 URI를 포함할 수 있습니다.
(선택사항) --location
플래그를 지정하고 값을 사용자 위치로 설정합니다.
이 외에 다음과 같은 선택적 플래그가 있습니다.
--time_partitioning_type
: 테이블에 시간 기준 파티션 나누기를 사용 설정하고 파티션 유형을 설정합니다. 가능한 값은HOUR
,DAY
,MONTH
,YEAR
입니다.DATE
,DATETIME
,TIMESTAMP
열을 기준으로 파티션을 나눈 테이블을 만드는 경우 이 플래그는 선택사항입니다. 시간 기준 파티션 나누기의 기본 파티션 유형은DAY
입니다. 기존 테이블의 파티션 나누기 사양을 변경할 수 없습니다.--time_partitioning_expiration
: 시간 기준 파티션을 삭제할 시간을 초 단위로 지정하는 정수입니다. 만료 시간은 파티션의 UTC 날짜에 정수 값을 더한 값입니다.--time_partitioning_field
: 파티션을 나눈 테이블을 만드는 데 사용되는DATE
또는TIMESTAMP
열입니다. 이 값 없이 시간 기준 파티션 나누기를 사용 설정하면 수집 시간으로 파티션을 나눈 테이블이 생성됩니다.--require_partition_filter
: 이 옵션을 사용 설정하면 사용자는 쿼리할 파티션을 지정하는WHERE
절을 포함해야 합니다. 파티션 필터를 필수항목으로 설정하면 비용을 줄이고 성능을 높일 수 있습니다. 자세한 내용은 파티션을 나눈 테이블 쿼리를 참조하세요.--clustering_fields
: 클러스터링된 테이블을 만드는 데 사용된 쉼표로 구분된 열 이름(최대 4개) 목록입니다.--destination_kms_key
: 테이블 데이터 암호화에 사용되는 Cloud KMS 키입니다.파티션을 나눈 테이블에 대한 자세한 내용은 다음을 참조하세요.
클러스터링된 테이블에 대한 자세한 내용은 다음을 참조하세요.
테이블 암호화에 대한 자세한 내용은 다음을 참조하세요.
BigQuery에 Avro 데이터를 로드하려면 다음 명령어를 입력하세요.
bq --location=location load \ --source_format=format \ dataset.table \ path_to_source
다음을 바꿉니다.
- location은 사용자의 위치입니다.
--location
플래그는 선택사항입니다. 예를 들어 도쿄 리전에서 BigQuery를 사용하는 경우에는 플래그 값을asia-northeast1
으로 설정하면 됩니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다. - format은
AVRO
입니다. - dataset는 기존 데이터 세트입니다.
- table은 데이터를 로드하는 테이블 이름입니다.
- path_to_source는 정규화된 Cloud Storage URI 또는 쉼표로 구분된 URI 목록이며 와일드 카드도 지원됩니다.
예시:
다음 명령어는 gs://mybucket/mydata.avro
에서 mydataset
에 있는 mytable
이라는 이름의 테이블로 데이터를 로드합니다.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
다음 명령어는 gs://mybucket/mydata.avro
에서 mydataset
에 있는 mytable
이라는 수집 시간으로 파티션을 나눈 테이블에 데이터를 로드합니다.
bq load \
--source_format=AVRO \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.avro
다음 명령어는 gs://mybucket/mydata.avro
에서 mydataset
에 있는 mytable
이라는 새로운 이름의 파티션을 나눈 테이블로 데이터를 로드합니다. 테이블의 파티션은 mytimestamp
열을 기준으로 나뉩니다.
bq load \
--source_format=AVRO \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.avro
다음 명령어는 gs://mybucket/
에 있는 여러 파일에서 mydataset
에 있는 mytable
이라는 테이블로 데이터를 로드합니다. Cloud Storage URI는 와일드 카드를 사용합니다.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata*.avro
다음 명령어는 gs://mybucket/
에 있는 여러 파일에서 mydataset
에 있는 mytable
이라는 테이블로 데이터를 로드합니다. 명령어에는 와일드 카드를 사용하는 쉼표로 구분된 Cloud Storage URI 목록이 포함됩니다.
bq load \
--source_format=AVRO \
mydataset.mytable \
"gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
API
Cloud Storage의 소스 데이터를 가리키는
load
작업을 만듭니다.(선택사항) 작업 리소스의
jobReference
섹션에 있는location
속성에 사용자 위치를 지정합니다.source URIs
속성은gs://bucket/object
형식으로 정규화되어야 합니다. 각 URI는 '*' 와일드 카드 문자 하나를 포함할 수 있습니다.sourceFormat
속성을AVRO
로 설정하여 Avro 데이터 형식을 지정합니다.작업 상태를 확인하려면
jobs.get(job_id*)
를 호출합니다. 여기서 job_id는 초기 요청에서 반환 된 작업의 ID입니다.status.state = DONE
이면 작업이 성공적으로 완료된 것입니다.status.errorResult
속성이 있으면 요청이 실패한 것이며 해당 객체에 문제를 설명하는 정보가 포함됩니다. 요청이 실패하면 테이블이 생성되지 않고 데이터가 로드되지 않습니다.status.errorResult
가 없으면 작업은 성공적으로 완료되었지만 일부 행 가져오기 문제와 같은 심각하지 않은 오류가 발생했을 수 있다는 의미입니다. 심각하지 않은 오류는 반환된 작업 객체의status.errors
속성에 나열됩니다.
API 참고:
로드 작업은 원자적이며 일관적입니다. 로드 작업이 실패하면 어떤 데이터도 사용할 수 없으며, 로드 작업이 성공하면 모든 데이터를 사용할 수 있습니다.
jobs.insert
를 호출하여 로드 작업을 만들 때는 고유 ID를 생성하여jobReference.jobId
로 전달하는 것이 가장 좋습니다. 클라이언트가 알려진 작업 ID로 폴링하거나 재시도할 수 있으므로 이 방법은 네트워크 장애 시에 더욱 안정적입니다.특정 작업 ID에 대한
jobs.insert
호출은 멱등성을 가집니다. 동일한 작업 ID에 대해 원하는 만큼 재시도할 수 있으며 이러한 작업 중 최대 하나가 성공하게 됩니다.
Go
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Go 설정 안내를 따르세요. 자세한 내용은 BigQuery Go API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
자바
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Java 설정 안내를 따르세요. 자세한 내용은 BigQuery Java API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
Node.js
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 BigQuery Node.js API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
Python
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
Avro 데이터에서 JSON 데이터 추출
Avro 데이터가 JSON
데이터로 BigQuery에 로드되도록 하는 방법에는 두 가지가 있습니다.
sqlType
을JSON
으로 설정하여 Avro 스키마에 주석을 추가합니다. 예를 들어 다음 Avro 스키마로 데이터를 로드하면json_field
열은JSON
유형으로 읽힙니다.{ "type": {"type": "string", "sqlType": "JSON"}, "name": "json_field" }
BigQuery 대상 테이블 스키마를 명시적으로 지정하고 열 유형을
JSON
으로 설정합니다. 자세한 내용은 스키마 지정을 참조하세요.
Avro 스키마 또는 BigQuery 테이블 스키마에서 JSON을 유형으로 지정하지 않으면 데이터가 STRING
으로 읽힙니다.
테이블에 Avro 데이터 추가 또는 덮어쓰기
소스 파일에서 또는 쿼리 결과를 추가하여 테이블에 추가 데이터를 로드할 수 있습니다.
Google Cloud 콘솔에서 쓰기 환경설정 옵션을 사용하여 소스 파일 또는 쿼리 결과에서 데이터를 로드할 때 수행할 작업을 지정합니다.
추가 데이터를 테이블에 로드할 때 다음 옵션을 사용할 수 있습니다.
Console 옵션 | bq 도구 플래그 | BigQuery API 속성 | 설명 |
---|---|---|---|
비어 있으면 쓰기 | 지원되지 않음 | WRITE_EMPTY |
테이블이 비어 있는 경우에만 데이터를 씁니다. |
테이블에 추가 | --noreplace 또는 --replace=false . --[no]replace 를 지정하지 않으면 기본값은 추가임 |
WRITE_APPEND |
(기본값) 데이터를 테이블 끝에 추가합니다. |
테이블 덮어쓰기 | --replace 또는 --replace=true |
WRITE_TRUNCATE |
새 데이터를 쓰기 전에 테이블의 기존 데이터를 모두 지웁니다. 이 작업은 테이블 스키마, 행 수준 보안을 삭제하고 Cloud KMS 키도 삭제합니다. |
기존 테이블에 데이터를 로드하는 경우 로드 작업에서 데이터를 추가하거나 테이블을 덮어쓸 수 있습니다.
Avro 데이터가 있는 테이블을 추가하거나 덮어쓰려면 다음 안내를 따르세요.
콘솔
Google Cloud 콘솔에서 BigQuery 페이지를 엽니다.
탐색기 패널에서 프로젝트를 확장하고 데이터 세트를 선택합니다.
작업 옵션을 펼치고 열기를 클릭합니다.
세부정보 패널에서 테이블 만들기
를 클릭합니다.테이블 만들기 페이지의 소스 섹션에서 다음을 수행합니다.
- 다음 항목으로 테이블 만들기에서 Cloud Storage를 선택합니다.
소스 필드에서 Cloud Storage URI를 찾아보거나 직접 입력합니다. Google Cloud 콘솔에서는 URI를 여러 개 포함할 수 없지만 와일드 카드는 지원됩니다. Cloud Storage 버킷은 추가하거나 덮어쓰려는 테이블이 포함된 데이터 세트와 같은 위치에 있어야 합니다.
파일 형식으로 Avro를 선택합니다.
테이블 만들기 페이지의 대상 섹션에서 다음을 수행합니다.
데이터 세트 이름에서 적절한 데이터 세트를 선택합니다.
테이블 이름 필드에 BigQuery에서 추가하거나 덮어쓰려는 테이블의 이름을 입력합니다.
테이블 유형이 기본 테이블로 설정되어 있는지 확인합니다.
스키마 섹션은 별도의 설정이 필요하지 않습니다. 스키마는 Avro 파일에서 자체 기술됩니다.
파티션 및 클러스터 설정은 기본값을 그대로 둡니다. 추가하거나 덮어쓰는 방법으로 테이블을 파티션을 나눈 테이블 또는 클러스터링된 테이블로 변환할 수 없습니다. Google Cloud 콘솔은 로드 작업에서 파티션을 나눈 테이블 또는 클러스터링된 테이블 추가 또는 덮어쓰기를 지원하지 않습니다.
고급 옵션을 클릭합니다.
- 쓰기 환경설정에서 테이블에 추가 또는 테이블 덮어쓰기를 선택합니다.
- 알 수 없는 값의 경우 알 수 없는 값 무시를 해제된 상태로 둡니다. 이 옵션은 CSV 및 JSON 파일에만 적용됩니다.
- Cloud Key Management Service 키를 사용하려면 암호화에서 고객 관리 키를 클릭합니다. Google 관리 키 설정을 그대로 두면 BigQuery는 저장 데이터를 암호화합니다.
테이블 만들기를 클릭합니다.
SQL
LOAD DATA
DDL 문을 사용합니다.
다음 예시에서는 Avro 파일을 mytable
테이블에 추가합니다.
Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.
쿼리 편집기에서 다음 문을 입력합니다.
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
실행을 클릭합니다.
쿼리를 실행하는 방법에 대한 자세한 내용은 대화형 쿼리 실행을 참조하세요.
bq
bq load
명령어를 --replace
플래그와 함께 입력하여 테이블을 덮어씁니다. --noreplace
플래그를 사용하여 데이터를 테이블에 추가합니다. 플래그를 지정하지 않으면 기본값은 데이터 추가입니다. --source_format
플래그를 입력하고 AVRO
로 설정합니다. Avro 스키마는 자체 설명적 소스 데이터로부터 자동으로 가져오므로 스키마 정의를 제공할 필요가 없습니다.
(선택사항) --location
플래그를 지정하고 값을 사용자 위치로 설정합니다.
이 외에 다음과 같은 선택적 플래그가 있습니다.
--destination_kms_key
: 테이블 데이터 암호화에 사용되는 Cloud KMS 키입니다.
bq --location=location load \ --[no]replace \ --source_format=format \ dataset.table \ path_to_source
다음을 바꿉니다.
- location은 사용자의 위치입니다.
--location
플래그는 선택사항입니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다. - format은
AVRO
입니다. - dataset는 기존 데이터 세트입니다.
- table은 데이터를 로드하는 테이블 이름입니다.
- path_to_source는 정규화된 Cloud Storage URI 또는 쉼표로 구분된 URI 목록이며 와일드 카드도 지원됩니다.
예시:
다음 명령어는 gs://mybucket/mydata.avro
에서 데이터를 로드하고 mydataset
에 있는 mytable
이라는 테이블을 덮어씁니다.
bq load \
--replace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
다음 명령어는 gs://mybucket/mydata.avro
에서 데이터를 로드하고 mydataset
에 있는 mytable
이라는 테이블에 데이터를 추가합니다.
bq load \
--noreplace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
bq 명령줄 도구를 사용하여 파티션을 나눈 테이블 추가 및 덮어쓰기에 대한 자세한 내용은 파티션을 나눈 테이블 데이터 추가 및 덮어쓰기를 참조하세요.
API
Cloud Storage의 소스 데이터를 가리키는
load
작업을 만듭니다.(선택사항) 작업 리소스의
jobReference
섹션에 있는location
속성에 사용자 위치를 지정합니다.source URIs
속성은gs://bucket/object
형식으로 정규화되어야 합니다. 여러 URI를 쉼표로 구분된 목록으로 포함할 수 있습니다. 와일드 카드도 지원됩니다.configuration.load.sourceFormat
속성을AVRO
로 설정하여 데이터 형식을 지정합니다.configuration.load.writeDisposition
속성을WRITE_TRUNCATE
또는WRITE_APPEND
로 설정하여 쓰기 환경설정을 지정합니다.
Go
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Go 설정 안내를 따르세요. 자세한 내용은 BigQuery Go API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
자바
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Java 설정 안내를 따르세요. 자세한 내용은 BigQuery Java API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
Node.js
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 BigQuery Node.js API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
Python
이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.
하이브 파티션을 나눈 Avro 데이터 로드
BigQuery는 Cloud Storage에 저장되는 파티션을 나눈 하이브 Avro 데이터 로드를 지원하고, 하이브 파티션 열을 대상 BigQuery 관리 테이블의 열로 채웁니다. 자세한 내용은 외부에서 파티션을 나눈 Cloud Storage 데이터 로드를 참조하세요.
Avro 변환
BigQuery는 Avro 데이터 유형을 다음과 같은 BigQuery 데이터 유형으로 변환합니다.
기본 유형
BigQuery 데이터 유형 | 참고 | |
---|---|---|
null | BigQuery는 이 값을 무시함 | |
부울 | 부울 | |
int | INTEGER | |
long | INTEGER | |
float | FLOAT | |
double | FLOAT | |
바이트 | BYTES | |
문자열 | STRING | UTF-8 전용 |
논리 유형
기본적으로 BigQuery는 대부분의 유형에 대해 logicalType
속성을 무시하고 대신 기본 Avro 유형을 사용합니다. Avro 논리 유형을 해당하는 BigQuery 데이터 유형으로 변환하려면 --use_avro_logical_types
플래그를 bq 명령줄 도구를 사용하는 true
로 설정하거나, jobs.insert
메서드를 호출하여 로드 작업을 만들 때 작업 리소스의 useAvroLogicalTypes
속성을 설정합니다.
아래 표에는 Avro 논리 유형과 변환되는 해당 BigQuery 데이터 유형이 나와 있습니다.
BigQuery 데이터 유형: 논리 유형 사용 중지됨 | BigQuery 데이터 유형: 논리 유형 사용 설정됨 | |
---|---|---|
날짜 | INTEGER | DATE |
time-millis | INTEGER | TIME |
time-micros | INTEGER(LONG에서 변환됨) | TIME |
timestamp-millis | INTEGER(LONG에서 변환됨) | TIMESTAMP |
timestamp-micros | INTEGER(LONG에서 변환됨) | TIMESTAMP |
local-timestamp-millis | INTEGER(LONG에서 변환됨) | DATETIME |
local-timestamp-micros | INTEGER(LONG에서 변환됨) | DATETIME |
기간 | BYTES(크기가 12인 fixed 유형에서 변환됨) |
BYTES(크기가 12인 fixed 유형에서 변환됨) |
decimal | NUMERIC, BIGNUMERIC 또는 STRING(Decimal 논리 유형 참조) | NUMERIC, BIGNUMERIC 또는 STRING(Decimal 논리 유형 참조) |
Avro 데이터 유형에 대한 자세한 내용은 Apache Avro™ 1.8.2 사양을 참조하세요.
날짜 논리 유형
로드하려는 Avro 파일에서 날짜 논리 유형을 다음 형식으로 지정해야 합니다.
{
"type": {"logicalType": "date", "type": "int"},
"name": "date_field"
}
Decimal 논리 유형
Decimal
논리 유형은 NUMERIC
, BIGNUMERIC
, STRING
유형으로 변환할 수 있습니다. 변환된 유형은 decimal
논리 유형 및 지정된 십진수 대상 유형의 정밀도 및 확장 매개변수에 따라 다릅니다. 십진수 대상 유형을 다음과 같이 지정합니다.
jobs.insert
API를 사용하는 로드 작업의 경우:JobConfigurationLoad.decimalTargetTypes
필드를 사용합니다.- bq 명령줄 도구의
bq load
명령어를 사용하는 로드 작업의 경우:--decimal_target_types
플래그를 사용합니다. - 외부 소스가 있는 테이블에 대한 쿼리의 경우:
ExternalDataConfiguration.decimalTargetTypes
필드를 사용합니다. - DDL로 생성된 영구 외부 테이블:
decimal_target_types
옵션을 사용합니다.
이전 버전과의 호환성을 위해, decimal 대상 유형이 지정되지 않은 경우 decimal
논리 유형이 있는 bytes
열을 포함하는 Avro 파일을 기존 테이블의 BYTES
열에 로드하세요. 이 경우 Avro 파일의 열에 있는 decimal
논리 유형은 무시됩니다. 이 변환 모드는 지원 중단되었으며 향후 삭제될 수 있습니다.
Avro decimal
논리 유형에 대한 자세한 내용은 Apache Avro™ 1.8.2 사양을 참조하세요.
시간 논리 유형
로드할 Avro 파일에서 시간 논리 유형을 다음 형식 중 하나로 지정해야 합니다.
밀리초 정밀도:
{
"type": {"logicalType": "time-millis", "type": "int"},
"name": "time_millis_field"
}
마이크로초 정밀도:
{
"type": {"logicalType": "time-micros", "type": "int"},
"name": "time_micros_field"
}
타임스탬프 논리 유형
로드할 Avro 파일에서 타임스탬프 논리 유형을 다음 형식 중 하나로 지정해야 합니다.
밀리초 정밀도:
{
"type": {"logicalType": "timestamp-millis", "type": "long"},
"name": "timestamp_millis_field"
}
마이크로초 정밀도:
{
"type": {"logicalType": "timestamp-micros", "type": "long"},
"name": "timestamp_micros_field"
}
Local-Timestamp 논리 유형
로드할 Avro 파일에서 Local-Timestamp 논리 유형을 다음 형식 중 하나로 지정해야 합니다.
밀리초 정밀도:
{
"type": {"logicalType": "local-timestamp-millis", "type": "long"},
"name": "local_timestamp_millis_field"
}
마이크로초 정밀도:
{
"type": {"logicalType": "local-timestamp-micros", "type": "long"},
"name": "local_timestamp_micros_field"
}
복합 유형
BigQuery 데이터 유형 | 참고 | |
---|---|---|
레코드 | RECORD |
|
enum | STRING |
|
배열 | 반복 필드 | 배열의 배열은 지원되지 않습니다. NULL 형식만 포함된 배열은 무시됩니다. |
map<T> | RECORD | BigQuery는 Avro map <T> 필드를 두 필드(키, 값)가 포함된 반복 RECORD로 변환합니다. BigQuery는 키를 STRING으로 저장하고 값을 BigQuery의 해당 데이터 유형으로 변환합니다. |
union |
|
|
고정 | BYTES |
|
제한사항
- BigQuery에서는 중첩된 배열 형식이 지원되지 않습니다. 가져오기 전에 이 형식을 사용하는 Avro 파일을 변환해야 합니다.
- Avro 파일에서 전체 이름의 이름과 네임스페이스에 영숫자 문자와 밑줄 문자(
_
)만 포함할 수 있습니다. 다음 정규 표현식은 허용되는 문자([A-Za-z_][A-Za-z0-9_]*
)를 보여줍니다.
자세한 내용은 BigQuery 로드 작업 한계를 참조하세요.