Pub/Sub Avro to BigQuery 템플릿은 Pub/Sub 구독에서 BigQuery 테이블로 Avro 데이터를 수집하는 스트리밍 파이프라인입니다. BigQuery 테이블에 쓰는 동안 발생하는 모든 오류는 Pub/Sub 처리되지 않은 주제로 스트리밍됩니다.
파이프라인 요구사항
- 입력 Pub/Sub 구독이 있어야 합니다.
- Avro 레코드의 스키마 파일이 Cloud Storage에 있어야 합니다.
- 처리되지 않은 Pub/Sub 주제가 있어야 합니다.
- 출력 BigQuery 데이터 세트가 있어야 합니다.
템플릿 매개변수
필수 매개변수
- schemaPath: Avro 스키마 파일의 Cloud Storage 위치입니다. 예를 들면
gs://path/to/my/schema.avsc
입니다. - inputSubscription: 읽어올 Pub/Sub 입력 구독입니다. 예를 들면
projects/<PROJECT_ID>/subscription/<SUBSCRIPTION_ID>
입니다. - outputTableSpec: 출력을 작성할 BigQuery 출력 테이블 위치입니다. 예를 들면
<PROJECT_ID>:<DATASET_NAME>.<TABLE_NAME>
입니다. 지정된createDisposition
에 따라 사용자가 제공한 Avro 스키마를 사용하여 출력 테이블을 자동으로 만들 수 있습니다. - outputTopic: 처리되지 않은 레코드에 사용할 Pub/Sub 주제입니다. 예를 들면
projects/<PROJECT_ID>/topics/<TOPIC_NAME>
입니다.
선택적 매개변수
- useStorageWriteApiAtLeastOnce: Storage Write API를 사용할 때 쓰기 시맨틱스를 지정합니다. 1회 이상 실행되는 시맨틱스 (https://beam.apache.org/documentation/io/built-in/google-bigquery/#at-least-once-semantics)를 사용하려면 이 매개변수를 true로 설정합니다. 1회만 실행되는 시맨틱스를 사용하려면 매개변수를
false
로 설정합니다. 이 매개변수는useStorageWriteApi
가true
인 경우에만 적용됩니다. 기본값은false
입니다. - writeDisposition: BigQuery WriteDisposition (https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#jobconfigurationload) 값입니다. 예를 들면
WRITE_APPEND
,WRITE_EMPTY
,WRITE_TRUNCATE
입니다. 기본값은WRITE_APPEND
입니다. - createDisposition: BigQuery CreateDisposition (https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#jobconfigurationload)입니다. 예를 들면
CREATE_IF_NEEDED
및CREATE_NEVER
입니다. 기본값은CREATE_IF_NEEDED
입니다. - useStorageWriteApi: true인 경우 파이프라인은 BigQuery Storage Write API (https://cloud.google.com/bigquery/docs/write-api)를 사용합니다. 기본값은
false
입니다. 자세한 내용은 Storage Write API(https://beam.apache.org/documentation/io/built-in/google-bigquery/#storage-write-api) 사용을 참조하세요. - numStorageWriteApiStreams: Storage Write API를 사용할 때 쓰기 스트림 수를 지정합니다.
useStorageWriteApi
가true
이고useStorageWriteApiAtLeastOnce
가false
이면 이 매개변수를 설정해야 합니다. 기본값은 0입니다. - storageWriteApiTriggeringFrequencySec: Storage Write API를 사용할 때 트리거 빈도를 초 단위로 지정합니다.
useStorageWriteApi
가true
이고useStorageWriteApiAtLeastOnce
가false
이면 이 매개변수를 설정해야 합니다.
템플릿 실행
콘솔
- Dataflow 템플릿에서 작업 만들기 페이지로 이동합니다. 템플릿에서 작업 만들기로 이동
- 작업 이름 필드에 고유한 작업 이름을 입력합니다.
- (선택사항): 리전 엔드포인트의 드롭다운 메뉴에서 값을 선택합니다. 기본 리전은
us-central1
입니다.Dataflow 작업을 실행할 수 있는 리전 목록은 Dataflow 위치를 참조하세요.
- Dataflow 템플릿 드롭다운 메뉴에서 the Pub/Sub Avro to BigQuery template을 선택합니다.
- 제공된 매개변수 필드에 매개변수 값을 입력합니다.
- 작업 실행을 클릭합니다.
gcloud
셸 또는 터미널에서 템플릿을 실행합니다.
gcloud dataflow flex-template run JOB_NAME \ --region=REGION_NAME \ --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/PubSub_Avro_to_BigQuery \ --parameters \ schemaPath=SCHEMA_PATH,\ inputSubscription=SUBSCRIPTION_NAME,\ outputTableSpec=BIGQUERY_TABLE,\ outputTopic=DEADLETTER_TOPIC
다음을 바꿉니다.
JOB_NAME
: 선택한 고유한 작업 이름REGION_NAME
: Dataflow 작업을 배포할 리전(예:us-central1
)VERSION
: 사용할 템플릿 버전다음 값을 사용할 수 있습니다.
latest
: 버킷의 날짜가 지정되지 않은 상위 폴더(gs://dataflow-templates-REGION_NAME/latest/)에서 사용할 수 있는 최신 버전의 템플릿을 사용합니다.- 버전 이름(예:
2023-09-12-00_RC00
): 버킷의 날짜가 지정된 해당 상위 폴더(gs://dataflow-templates-REGION_NAME/)에 중첩되어 있는 특정 버전의 템플릿을 사용합니다.
SCHEMA_PATH
: Avro 스키마 파일의 Cloud Storage 경로(예:gs://MyBucket/file.avsc
).SUBSCRIPTION_NAME
: Pub/Sub 입력 구독 이름BIGQUERY_TABLE
: BigQuery 출력 테이블 이름DEADLETTER_TOPIC
: 처리되지 않은 큐에 사용할 Pub/Sub 주제
API
REST API를 사용하여 템플릿을 실행하려면 HTTP POST 요청을 전송합니다. API 및 승인 범위에 대한 자세한 내용은 projects.templates.launch
를 참조하세요.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch { "launch_parameter": { "jobName": "JOB_NAME", "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/PubSub_Avro_to_BigQuery", "parameters": { "schemaPath": "SCHEMA_PATH", "inputSubscription": "SUBSCRIPTION_NAME", "outputTableSpec": "BIGQUERY_TABLE", "outputTopic": "DEADLETTER_TOPIC" } } }
다음을 바꿉니다.
JOB_NAME
: 선택한 고유한 작업 이름LOCATION
: Dataflow 작업을 배포할 리전(예:us-central1
)VERSION
: 사용할 템플릿 버전다음 값을 사용할 수 있습니다.
latest
: 버킷의 날짜가 지정되지 않은 상위 폴더(gs://dataflow-templates-REGION_NAME/latest/)에서 사용할 수 있는 최신 버전의 템플릿을 사용합니다.- 버전 이름(예:
2023-09-12-00_RC00
): 버킷의 날짜가 지정된 해당 상위 폴더(gs://dataflow-templates-REGION_NAME/)에 중첩되어 있는 특정 버전의 템플릿을 사용합니다.
SCHEMA_PATH
: Avro 스키마 파일의 Cloud Storage 경로(예:gs://MyBucket/file.avsc
).SUBSCRIPTION_NAME
: Pub/Sub 입력 구독 이름BIGQUERY_TABLE
: BigQuery 출력 테이블 이름DEADLETTER_TOPIC
: 처리되지 않은 큐에 사용할 Pub/Sub 주제
다음 단계
- Dataflow 템플릿 알아보기
- Google 제공 템플릿 목록 참조