Cloud Datastore 내보내기에서 데이터 로드

Google BigQuery는 Cloud Datastore 관리형 가져오기 및 내보내기 서비스를 사용하여 만든 Cloud Datastore 내보내기에서 데이터를 로드하는 기능을 지원합니다. 관리형 가져오기 및 내보내기 서비스를 사용하여 Cloud Datastore 항목을 Cloud Storage 버킷으로 내보낼 수 있습니다. 그런 다음 내보내기를 BigQuery에 테이블로 로드할 수 있습니다.

Cloud Datastore 내보내기 파일을 만드는 방법에 대한 자세한 내용은 Cloud Datastore 문서의 항목 내보내기 및 가져오기를 참조하세요. 내보내기 예약에 대한 자세한 내용은 내보내기 예약을 참조하세요.

API에서 projectionFields 속성을 설정하거나 CLI에서 --projection_fields 플래그를 사용하여 BigQuery에서 로드할 속성을 제어할 수 있습니다.

로드 프로세스를 건너뛰려면 내보내기를 외부 데이터 소스로 설정하여 직접 쿼리하면 됩니다. 자세한 내용은 외부 데이터 소스를 참조하세요.

Cloud Storage에서 BigQuery 테이블로 데이터를 로드하는 경우, 테이블을 포함한 데이터세트는 Cloud Storage 버킷과 같은 지역이나 다중 지역 위치에 있어야 합니다.

필수 권한

BigQuery로 데이터를 로드할 때는 데이터를 신규 또는 기존 BigQuery 테이블과 파티션에 로드할 수 있는 프로젝트 또는 데이터세트 수준의 권한이 있어야 합니다. Cloud Storage에서 데이터를 로드하는 경우에는 데이터가 포함된 버킷에 대한 액세스 권한도 필요합니다.

BigQuery 권한

Cloud Storage에서 BigQuery로 데이터를 로드할 때는 프로젝트 수준이나 데이터세트 수준에서 bigquery.dataOwner 또는 bigquery.dataEditor 역할을 부여 받아야 합니다. 두 역할 모두 사용자와 그룹에게 데이터를 새로운 테이블에 로드하거나 기존 테이블에 추가 또는 덮어쓸 수 있는 권한을 부여합니다.

사용자나 그룹이 프로젝트 수준의 역할을 부여 받으면 프로젝트 내의 모든 데이터세트에 있는 테이블에 데이터를 로드할 수 있는 권한이 제공됩니다. 사용자나 그룹이 데이터세트 수준의 역할을 부여 받으면 데이터를 해당 데이터세트의 테이블에만 로드할 수 있습니다.

데이터세트 액세스 권한 구성에 대한 자세한 내용은 데이터세트에 대한 액세스 제어를 참조하세요. BigQuery의 IAM 역할에 대한 자세한 내용은 액세스 제어를 참조하세요.

Cloud Storage 권한

Cloud Storage 버킷에서 데이터를 로드하려면 프로젝트 수준이나 개별 버킷에서 storage.objects.get 권한을 부여 받아야 합니다. URI 와일드 카드를 사용하는 경우에는 storage.objects.list 권한도 있어야 합니다.

사전 정의된 IAM 역할 storage.objectViewer를 부여받으면 storage.objects.getstorage.objects.list 권한이 제공됩니다.

제한사항

Cloud Datastore 내보내기에서 BigQuery로 데이터를 로드하는 경우, 다음 제한사항에 유의하세요.

  • Cloud Datastore 내보내기 파일을 지정하는 경우, Cloud Storage URI에서 와일드 카드를 사용할 수 없습니다.
  • Cloud Datastore 내보내기에서 데이터 로드 시 Cloud Storage URI를 하나만 지정할 수 있습니다.
  • Cloud Datastore 내보내기 데이터를 정의된 스키마가 있는 기존 테이블에 추가할 수 없습니다.
  • Cloud Datastore 내보내기가 올바르게 로드되려면 내보내기 데이터의 항목이 일관된 스키마를 공유해야 합니다.
  • 항목 필터를 지정하지 않고 내보낸 데이터는 BigQuery에 로드될 수 없습니다. 내보내기 요청의 항목 필터에는 종류 이름이 한 개 이상 포함되어야 합니다.
  • Cloud Datastore 내보내기의 최대 필드 크기는 64KB입니다. Cloud Datastore 내보내기를 로드할 때 64KB보다 큰 필드는 모두 잘립니다.

Cloud Datastore 내보내기 서비스 데이터 로드

Cloud Datastore 내보내기 메타데이터 파일에서 데이터를 로드하는 방법은 다음과 같습니다.

기본 UI

  1. 기본 BigQuery 웹 UI로 이동합니다.
    BigQuery 웹 UI로 이동
  2. 탐색 패널에서 데이터세트에 마우스를 올려놓고 아래쪽 화살표 아이콘 아래쪽 화살표 아이콘 이미지을 클릭한 후 새 테이블 만들기를 클릭합니다. 데이터를 로드하는 프로세스는 빈 테이블을 생성하는 프로세스와 동일합니다.
  3. 테이블 만들기 페이지의 소스 데이터 섹션에서 다음을 수행합니다.
    • 소스에서 만들기를 선택한 상태로 유지합니다.
    • 위치Cloud Storage를 선택하고 소스 필드에 Cloud Storage URI를 입력합니다. Cloud Storage 버킷이 만드는 테이블을 포함하는 데이터세트와 같은 위치에 있어야 합니다. Cloud Datastore 내보내기 파일의 URI는 [KIND_NAME].export_metadata로 끝나야 합니다. 예를 들면 default_namespace_kind_Book.export_metadata입니다. 이 예에서 Book은 종류 이름이고 default_namespace_kind_Book은 Cloud Datastore에서 생성된 파일 이름입니다.

      Cloud Storage URI에 [KIND_NAME]이 지정되었는지 확인합니다. [KIND_NAME] 없이 URI를 지정하면 does not contain valid backup metadata. (error code: invalid) 오류가 발생합니다.

    • 파일 형식으로 Cloud Datastore 백업을 선택합니다.
  4. 테이블 만들기 페이지의 대상 테이블 섹션에서 다음을 수행합니다.
    • 테이블 이름으로 적절한 데이터세트를 선택하고 테이블 이름 필드에 BigQuery에서 만들 테이블 이름을 입력합니다.
    • 테이블 유형기본 테이블로 설정되어 있는지 확인합니다.
  5. 스키마 섹션에는 필요한 작업이 없습니다. 스키마는 Cloud Datastore 내보내기에서 유추됩니다.
  6. 옵션 섹션에서 적용할 수 있는 항목을 선택한 후 테이블 만들기를 클릭합니다. 사용 가능한 옵션에 대한 자세한 내용은 Cloud Datastore 옵션을 참조하세요.

명령줄

source_formatDATASTORE_BACKUP으로 설정하여 bq load 명령어를 사용합니다. --location 플래그를 제공하고 값을 사용자 위치로 설정합니다.

bq --location=[LOCATION] load --source_format=[FORMAT] [DATASET].[TABLE] [PATH_TO_SOURCE]

각 항목의 의미는 다음과 같습니다.

  • [LOCATION]은 사용자의 위치입니다. --location 플래그는 선택사항입니다. 예를 들어, 도쿄 지역에서 BigQuery를 사용하는 경우에는 플래그 값을 asia-northeast1로 설정할 수 있습니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다.
  • [FORMAT]DATASTORE_BACKUP입니다.
  • [DATASET]는 데이터를 로드할 테이블이 포함된 데이터세트입니다.
  • [TABLE]은 데이터를 로드하는 테이블입니다. 테이블이 없는 경우에는 만들어집니다.
  • [PATH_TO_SOURCE]Cloud Storage URI입니다.

예를 들어, 다음 명령은 gs://mybucket/20180228T1256/default_namespace/kind_Book/default_namespace_kind_Book.export_metadata Cloud Datastore 내보내기 파일을 이름이 book_data인 테이블에 로드합니다. mybucketmydatasetUS 다중 지역 위치에서 생성되었습니다.

bq --location=US load --source_format=DATASTORE_BACKUP mydataset.book_data gs://mybucket/20180228T1256/default_namespace/kind_Book/default_namespace_kind_Book.export_metadata

API

API를 사용하여 Cloud Datastore 내보내기 데이터를 로드하려면 다음 속성을 설정합니다.

  1. Cloud Storage의 소스 데이터를 가리키는 로드 작업을 만듭니다.

  2. 작업 리소스jobReference 섹션에 있는 location 속성에 위치를 지정합니다.

  3. 소스 URI는 gs://[BUCKET]/[OBJECT] 형식으로 정규화되어야 합니다. 파일(객체) 이름은 [KIND_NAME].export_metadata로 끝나야 합니다. Cloud Datastore 내보내기에는 URI 한 개만 허용되며, 와일드 카드를 사용할 수 없습니다.

  4. configuration.load.sourceFormat 속성을 DATASTORE_BACKUP으로 설정하여 데이터 형식을 지정합니다.

Cloud Datastore 관리자 백업

Cloud Datastore 관리자 백업 기능을 사용하여 Cloud Datastore 데이터를 내보내면 파일 확장자는 .export_metadata가 아닌 .backup_info입니다. Cloud Datastore 관리자 백업 서비스를 사용할 수 없게 될 때까지는 BigQuery로 데이터를 가져오면 .backup_info 파일 또는 .export_metadata 파일을 사용할 수 있습니다.

Cloud Datastore 데이터로 테이블 추가 또는 덮어쓰기

Cloud Datastore 내보내기 데이터를 BigQuery로 로드하면 데이터를 저장할 새 테이블을 만들거나 기존 테이블을 덮어쓸 수 있습니다. Cloud Datastore 내보내기 데이터를 기존 테이블에 추가할 수 없습니다.

Cloud Datastore 내보내기 데이터를 기존 테이블에 추가하려 하면 Cannot append a datastore backup to a table that already has a schema. Try using the WRITE_TRUNCATE write disposition to replace the existing table 오류가 발생합니다.

기존 테이블을 Cloud Datastore 내보내기 데이터로 덮어쓰는 방법은 다음과 같습니다.

기본 UI

  1. 기본 BigQuery 웹 UI로 이동합니다.
    BigQuery 웹 UI로 이동
  2. 탐색 패널에서 데이터세트에 마우스를 올려놓고 아래쪽 화살표 아이콘 아래쪽 화살표 아이콘 이미지을 클릭한 후 새 테이블 만들기를 클릭합니다. 데이터를 로드하는 프로세스는 빈 테이블을 생성하는 프로세스와 동일합니다.
  3. 테이블 만들기 페이지의 소스 데이터 섹션에서 다음을 수행합니다.
    • 소스에서 만들기를 선택한 상태로 유지합니다.
    • 위치Cloud Storage를 선택하고 소스 필드에 Cloud Storage URI를 입력합니다. Cloud Storage 버킷이 만드는 테이블을 포함하는 데이터세트와 같은 위치에 있어야 합니다. Cloud Datastore 내보내기 파일의 URI는 [KIND_NAME].export_metadata로 끝나야 합니다. 예를 들면 default_namespace_kind_Book.export_metadata입니다. 이 예에서 Book은 종류 이름이고 default_namespace_kind_Book은 Cloud Datastore에서 생성된 파일 이름입니다.

      Cloud Storage URI에 [KIND_NAME]이 지정되었는지 확인합니다. [KIND_NAME] 없이 URI를 지정하면 does not contain valid backup metadata. (error code: invalid) 오류가 발생합니다.

    • 파일 형식으로 Cloud Datastore 백업을 선택합니다.
  4. 테이블 만들기 페이지의 대상 테이블 섹션에서 다음을 수행합니다.
    • 테이블 이름으로 적절한 데이터세트를 선택하고 테이블 이름 필드에 덮어쓰고 있는 테이블 이름을 입력합니다.
    • 테이블 유형기본 테이블로 설정되어 있는지 확인합니다.
  5. 스키마 섹션에는 필요한 작업이 없습니다. 스키마는 Cloud Datastore 내보내기에서 유추됩니다.
  6. 옵션 섹션의 쓰기 기본 설정에서 테이블 덮어쓰기를 선택합니다.
  7. 테이블 만들기를 클릭합니다.

명령줄

--replace 플래그를 지정하고 source_formatDATASTORE_BACKUP으로 설정하여 bq load 명령어를 사용합니다. --location 플래그를 제공하고 값을 사용자 위치로 설정합니다. .

bq --location=[LOCATION] load --source_format=[FORMAT] --replace [DATASET].[TABLE] [PATH_TO_SOURCE]

각 항목의 의미는 다음과 같습니다.

  • [LOCATION]은 사용자의 위치입니다. --location 플래그는 선택사항입니다. 예를 들어, 도쿄 지역에서 BigQuery를 사용하는 경우에는 플래그 값을 asia-northeast1로 설정할 수 있습니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다.
  • [FORMAT]DATASTORE_BACKUP입니다.
  • [DATASET]는 데이터를 로드할 테이블이 포함된 데이터세트입니다.
  • [TABLE]은 덮어쓸 테이블입니다.
  • [PATH_TO_SOURCE]Cloud Storage URI입니다.

예를 들어, 다음 명령어는 gs://mybucket/20180228T1256/default_namespace/kind_Book/default_namespace_kind_Book.export_metadata Cloud Datastore 내보내기 파일을 로드하고 이름이 book_data인 테이블을 덮어씁니다.

bq load --source_format=DATASTORE_BACKUP --replace mydataset.book_data gs://mybucket/20180228T1256/default_namespace/kind_Book/default_namespace_kind_Book.export_metadata

API

API에서 데이터를 로드하려면 속성을 다음과 같이 설정합니다.

  1. Cloud Storage의 소스 데이터를 가리키는 로드 작업을 만듭니다.

  2. 작업 리소스jobReference 섹션에 있는 location 속성에 위치를 지정합니다.

  3. 소스 URI는 gs://[BUCKET]/[OBJECT] 형식으로 정규화되어야 합니다. 파일(객체) 이름은 [KIND_NAME].export_metadata로 끝나야 합니다. Cloud Datastore 내보내기에는 URI 한 개만 허용되며, 와일드 카드를 사용할 수 없습니다.

  4. configuration.load.sourceFormat 속성을 DATASTORE_BACKUP으로 설정하여 데이터 형식을 지정합니다.

  5. configuration.load.writeDisposition 속성을 WRITE_TRUNCATE로 설정하여 쓰기 처리를 설정합니다.

Cloud Datastore 옵션

BigQuery가 Cloud Datastore 내보내기 데이터를 파싱하는 방법을 변경하려면 기본 웹 UI, CLI 또는 API에서 추가 옵션을 지정합니다.

CSV 옵션 기본 UI 옵션 CLI 플래그 BigQuery API 속성 설명
프로젝션 필드 없음 --projection_fields projectionFields Cloud Datastore 내보내기에서 BigQuery로 로드할 항목 속성을 나타내는 쉼표로 구분된 목록입니다. 속성 이름은 대소문자를 구분하며 최상위 수준 속성이어야 합니다. 속성을 지정하지 않으면 BigQuery에서 모든 속성을 로드합니다. Cloud Datastore 내보내기에 명명된 속성이 없으면 작업 결과에 잘못된 오류가 반환됩니다. 기본값은 ''입니다.
허용되는 불량 레코드 수 허용되는 오류 개수 --max_bad_records maxBadRecords (선택사항) 작업을 실행할 때 BigQuery가 무시할 수 있는 불량 레코드의 최대 개수입니다. 불량 레코드의 수가 이 값을 초과하면 작업 결과에 잘못된 오류가 반환됩니다. 기본값은 0이며 모든 레코드가 유효해야 합니다.

데이터 유형 변환

BigQuery는 데이터를 Cloud Datastore 내보내기 파일의 각 항목에서 BigQuery의 데이터 유형으로 변환합니다. 다음 표에서는 데이터 형식 간의 변환을 설명합니다.

Cloud Datastore 데이터 유형 BigQuery 데이터 유형
Blob BigQuery는 데이터를 로드할 때 이러한 값을 삭제합니다.
Blobstore STRING
부울 BOOLEAN
카테고리 STRING
Datastore 키 RECORD
날짜 및 시간 TIMESTAMP
이메일 STRING
삽입된 항목 RECORD
부동 소수점 수 FLOAT
지리적 지점

RECORD


[{"lat","DOUBLE"},
 {"long","DOUBLE"}]
        
IM 핸들 STRING
정수 INTEGER
링크 STRING
전화번호 STRING
우편 주소 STRING
평점 INTEGER
간단한 blob BigQuery는 데이터를 로드할 때 이러한 값을 삭제합니다.
문자열 STRING(64KB로 잘림)
사용자

RECORD


[{"email","STRING"}
 {"userid","STRING"}]
        

데이터 저장소 키 속성

Cloud Datastore의 각 항목에는 네임스페이스, 경로와 같은 정보가 포함된 고유한 키가 있습니다. BigQuery는 다음 표와 같이 각 정보의 중첩된 필드와 함께 키의 RECORD 데이터 유형을 만듭니다.

키 속성 설명 BigQuery 데이터 유형
__key__.app Cloud Datastore 앱 이름입니다. STRING
__key__.id 항목의 ID이거나 __key__.name이 설정된 경우에는 null입니다. INTEGER
__key__.kind 항목의 종류입니다. STRING
__key__.name 항목의 이름이거나 __key__.id가 설정된 경우에는 null입니다. STRING
__key__.namespace Cloud Datastore 앱에서 커스텀 네임스페이스를 사용하는 경우 항목의 네임스페이스입니다. 그렇지 않으면 기본 네임스페이스가 빈 문자열로 표시됩니다. STRING
__key__.path 평면화된 항목의 상위 경로이며, 루트 항목에서 항목 자체까지의 일련의 종류 식별자 쌍으로 구성됩니다. 예를 들면 "Country", "USA", "PostalCode", 10011, "Route", 1234입니다. STRING
이 페이지가 도움이 되었나요? 평가를 부탁드립니다.

다음에 대한 의견 보내기...

도움이 필요하시나요? 지원 페이지를 방문하세요.