이 튜토리얼에서는 BigQuery에 대한 Pub/Sub 주제 템플릿을 사용하여 Google Cloud 콘솔 또는 Google Cloud CLI를 통해 Dataflow 템플릿 작업을 만들고 실행합니다. 이 튜토리얼에서는 Pub/Sub에서 JSON 인코딩된 메시지를 읽고, Apache Beam SDK로 메시지 데이터를 변환하고, 결과를 BigQuery 테이블에 쓰는 스트리밍 파이프라인 예시를 설명합니다.
스트리밍 분석 및 데이터 통합 파이프라인은 Pub/Sub를 사용하여 데이터를 수집하고 배포합니다. Pub/Sub를 사용하면 게시자 및 구독자라는 이벤트 제작자 및 소비자 시스템을 만들 수 있습니다. 게시자는 이벤트를 Pub/Sub 서비스에 비동기적으로 보내고, Pub/Sub는 이벤트에 응답해야 하는 모든 서비스에 이벤트를 전달합니다.
Dataflow는 스트림(실시간) 및 일괄 모드에서 데이터를 변환하고 강화하는 완전 관리형 서비스입니다. Apache Beam SDK를 사용하여 수신 데이터를 변환하고 변환된 데이터를 출력하는 간소화된 파이프라인 개발 환경을 제공합니다.
데이터 변환을 제공하도록 Dataflow를 구성하지 않고 BigQuery에 직접 메시지를 쓰려면 Pub/Sub BigQuery 구독을 사용합니다.
목표
- Pub/Sub 주제를 만듭니다.
- 테이블 및 스키마가 있는 BigQuery 데이터 세트를 만듭니다.
- Google에서 제공하는 스트리밍 템플릿을 사용하여 Dataflow를 사용하여 Pub/Sub 주제에서 BigQuery로 데이터를 스트리밍합니다.
- 사용자 정의 함수(UDF)를 만들어 Google에서 제공하는 스트리밍 템플릿을 확장합니다.
비용
이 문서에서는 비용이 청구될 수 있는 다음과 같은 Google Cloud 구성요소를 사용합니다.
- Dataflow
- Pub/Sub
- Cloud Storage
- Cloud Scheduler
- BigQuery
프로젝트 사용량을 기준으로 예상 비용을 산출하려면 가격 계산기를 사용하세요.
이 문서에 설명된 태스크를 완료했으면 만든 리소스를 삭제하여 청구가 계속되는 것을 방지할 수 있습니다. 자세한 내용은 삭제를 참조하세요.
시작하기 전에
이 섹션에서는 프로젝트를 선택하고, API를 사용 설정하고, 사용자 계정 및 작업자 서비스 계정에 적절한 역할을 부여하는 방법을 보여줍니다. 프로덕션 환경에서는 소유자 역할을 부여하지 마세요. 대신 적절한 Dataflow 특정 권한 및 역할을 사용합니다.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataflow, Compute Engine, Logging, Cloud Storage, Cloud Storage JSON, BigQuery, Pub/Sub, Resource Manager, and Cloud Scheduler APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataflow, Compute Engine, Logging, Cloud Storage, Cloud Storage JSON, BigQuery, Pub/Sub, Resource Manager, and Cloud Scheduler APIs.
이 튜토리얼의 단계를 완료하려면 사용자 계정에 서비스 계정 사용자 역할이 있어야 합니다. Compute Engine 기본 서비스 계정에는 Dataflow 작업자, Dataflow 관리자, Pub/Sub 편집자, 스토리지 객체 관리자, BigQuery 데이터 편집자 역할이 있어야 합니다. Google Cloud 콘솔에서 필요한 역할을 추가하려면 다음 안내를 따르세요.
- Google Cloud 콘솔에서 IAM 페이지로 이동합니다.
IAM으로 이 - 프로젝트를 선택합니다.
- 사용자 계정이 포함된 행에서 주 구성원 수정을 클릭한 다음 다른 역할 추가를 클릭합니다.
- 드롭다운 목록에서 서비스 계정 사용자 역할을 선택합니다.
- Compute Engine 기본 서비스 계정이 포함된 행에서 주 구성원 수정을 클릭한 다음 다른 역할 추가를 클릭합니다.
- 드롭다운 목록에서 Dataflow 작업자 역할을 선택합니다.
- Dataflow 관리자, Pub/Sub 편집자, 스토리지 객체 관리자, BigQuery 데이터 편집자 역할에 대해 같은 단계를 반복하고 저장을 클릭합니다.
역할 부여에 대한 상세 설명은 콘솔을 사용하여 IAM 역할 부여를 참조하세요.
- Google Cloud 콘솔에서 IAM 페이지로 이동합니다.
- Google Cloud CLI를 사용하여 이 튜토리얼을 완료하는 경우 Google Cloud CLI를 설치하고 초기화합니다. Google Cloud 콘솔을 사용하여 이 튜토리얼을 완료하는 경우 이 단계를 건너뛰세요.
Google Cloud CLI를 사용하여 이 튜토리얼을 완료하는 경우 Google 계정에 대한 사용자 인증 정보를 만듭니다.
gcloud auth application-default login
예시 소스 및 싱크 만들기
이 섹션에서는 다음을 만드는 방법을 설명합니다.
- Pub/Sub를 사용하여 데이터의 스트리밍 소스
- BigQuery에 데이터를 로드하는 데이터 세트
Cloud Storage 버킷 만들기
먼저 Google Cloud 콘솔 또는 Google Cloud CLI를 사용하여 Cloud Storage 버킷을 만듭니다. 이 버킷은 Dataflow 파이프라인에서 임시 스토리지 위치로 사용됩니다.
콘솔
Google Cloud 콘솔에서 Cloud Storage 브라우저 페이지로 이동합니다.
버킷 만들기를 클릭합니다.
버킷 만들기 페이지에서 버킷 이름 지정에 버킷 이름 지정 요구사항을 충족하는 이름을 입력합니다. Cloud Storage 버킷 이름은 전역에서 고유해야 합니다. 다른 옵션을 선택하지 마세요.
만들기를 클릭합니다.
gcloud
gsutil mb
명령어를 사용합니다.
gsutil mb gs://BUCKET_NAME
BUCKET_NAME
을 버킷 이름 지정 요구사항을 충족하는 Cloud Storage 버킷의 이름으로 바꿉니다.
Cloud Storage 버킷 이름은 전역에서 고유해야 합니다.
Pub/Sub 주제 및 구독 만들기
Pub/Sub 주제를 만든 다음 이 주제에 대한 구독을 만듭니다.
콘솔
주제를 만들려면 다음 단계를 완료합니다.
Google Cloud 콘솔에서 Pub/Sub 주제 페이지로 이동합니다.
주제 만들기를 클릭합니다.
주제 ID 필드에 주제의 ID를 입력합니다. 주제 이름을 지정하는 방법에 대한 자세한 내용은 주제 또는 구독 이름 지정 안내를 참조하세요.
기본 구독 추가 옵션을 유지합니다. 다른 옵션을 선택하지 마세요.
주제 만들기를 클릭합니다.
gcloud CLI
주제를 만들려면 gcloud pubsub topics create
명령어를 실행합니다. 구독 이름 지정 방법은 주제 또는 구독 이름 지정 안내를 참조하세요.
gcloud pubsub topics create TOPIC_ID
TOPIC_ID
를 Pub/Sub 주제의 이름으로 바꿉니다.
주제에 대한 구독을 만들려면 gcloud pubsub subscriptions create
명령어를 실행합니다.
gcloud pubsub subscriptions create --topic TOPIC_ID SUBSCRIPTION_ID
SUBSCRIPTION_ID
를 Pub/Sub 구독 이름으로 바꿉니다.
Cloud Scheduler 작업 만들기 및 실행
두 개의 Cloud Scheduler 작업을 만들고 실행합니다. 하나는 '긍정적인 평점', 다른 하나는 '부정적인 평점'을 Pub/Sub 주제에 게시하는 작업입니다.
콘솔
긍정적인 평점을 위한 Cloud Scheduler 작업을 만듭니다.
콘솔에서 Cloud 스케줄러 페이지로 이동합니다.
작업 만들기 버튼을 클릭합니다.
positive-ratings-publisher
이름을 입력합니다.작업을 실행할 리전을 선택합니다. 이 튜토리얼에서 명령어를 실행할 위치에 가까운 Dataflow 리전을 선택합니다.
REGION
변수 값은 유효한 리전 이름이어야 합니다. 리전과 위치에 대한 자세한 내용은 Dataflow 위치를 참조하세요.unix-cron 형식
* * * * *
을 사용하여 작업의 빈도를 지정합니다.자세한 내용은 크론 작업 일정 구성을 참조하세요.
시간대를 선택합니다.
계속을 클릭합니다.
대상 드롭다운에서 Pub/Sub를 선택합니다.
드롭다운에서 주제 이름을 선택합니다.
대상으로 전송될 다음 메시지 문자열을 추가합니다:
{"url": "https://beam.apache.org/", "review": "positive"}
만들기를 클릭합니다.
이제 1분마다 Pub/Sub 주제에 긍정적인 평점이 포함된 메시지를 전송하는 크론 작업이 생성되었습니다. Cloud Function이 그 주제에 등록되었습니다.
부정적인 평점을 위한 Cloud Scheduler 작업을 만듭니다.
콘솔의 Cloud Scheduler 페이지에서 작업 만들기 버튼을 클릭합니다.
negative-ratings-publisher
이름을 입력합니다.작업을 실행할 리전을 선택합니다.
unix-cron 형식
*/2 * * * *
을 사용하여 작업의 빈도를 지정합니다.자세한 내용은 크론 작업 일정 구성을 참조하세요.
시간대를 선택합니다.
계속을 클릭합니다.
대상 드롭다운에서 Pub/Sub를 선택합니다.
드롭다운에서 주제 이름을 선택합니다.
대상으로 전송될 다음 메시지 문자열을 추가합니다:
{"url": "https://beam.apache.org/", "review": "negative"}
만들기를 클릭합니다.
이제 2분마다 Pub/Sub 주제에 부정적인 평가가 포함된 메시지를 전송하는 크론 작업이 생성되었습니다. Cloud Function이 그 주제에 등록되었습니다.
gcloud
이 튜토리얼에서 Cloud Scheduler 작업을 만들려면
gcloud scheduler jobs create
명령어를 사용합니다. 이 단계에서는 1분마다 1개의 메시지를 게시하는 '긍정적인 평점'을 위한 게시자를 만듭니다.gcloud scheduler jobs create pubsub positive-ratings-publisher \ --schedule="* * * * *" \ --location=DATAFLOW_REGION \ --topic="TOPIC_ID" \ --message-body='{"url": "https://beam.apache.org/", "review": "positive"}'
DATAFLOW_REGION
을 Dataflow 작업 배포에 사용되는 리전 엔드포인트로 바꿉니다. 이 튜토리얼에서 명령어를 실행할 위치에 가까운 Dataflow 리전을 선택합니다.REGION
변수 값은 유효한 리전 이름이어야 합니다. 리전과 위치에 대한 자세한 내용은 Dataflow 위치를 참조하세요.Cloud Scheduler 작업을 시작하려면
gcloud scheduler jobs run
명령어를 사용합니다.gcloud scheduler jobs run --location=DATAFLOW_REGION positive-ratings-publisher
2분마다 1개의 메시지를 게시하는 '부정적인 평점'에 대해 다른 유사한 게시자를 작성하고 실행합니다. 이 단계에서는 2분마다 1개의 메시지를 게시하는 '부정적인 평점'을 위한 게시자를 만듭니다.
gcloud scheduler jobs create pubsub negative-ratings-publisher \ --schedule="*/2 * * * *" \ --location=DATAFLOW_REGION \ --topic="TOPIC_ID" \ --message-body='{"url": "https://beam.apache.org/", "review": "negative"}'
두 번째 Cloud Scheduler 작업을 시작합니다.
gcloud scheduler jobs run --location=DATAFLOW_REGION negative-ratings-publisher
BigQuery 데이터세트 만들기
Pub/Sub 주제에 적절한 스키마로 BigQuery 데이터 세트와 테이블을 만듭니다.
콘솔
BigQuery 데이터 세트를 만듭니다.
Google Cloud Console에서 BigQuery 페이지를 엽니다.
탐색기 패널에서 데이터 세트를 만들 프로젝트를 선택합니다.
작업 옵션을 펼치고 데이터 세트 만들기를 클릭합니다.
데이터 세트 만들기 페이지에서 다음을 실행합니다.
- 데이터세트 ID에
tutorial_dataset
을 입력합니다. 데이터 위치에서 데이터 세트의 지리적 위치를 선택합니다. 데이터 세트가 생성된 후에는 위치를 변경할 수 없습니다.
다른 옵션을 선택하지 마세요.
데이터 세트 만들기를 클릭합니다.
- 데이터세트 ID에
스키마가 있는 BigQuery 테이블을 만듭니다.
탐색기 패널에서 프로젝트를 확장하고
tutorial_dataset
데이터 세트를 선택합니다.작업 옵션을 펼치고 열기를 클릭합니다.
세부정보 패널에서 테이블 만들기
를 클릭합니다.테이블 만들기 페이지의 소스 섹션에서 빈 테이블을 선택합니다.
테이블 만들기 페이지의 대상 섹션에서 다음을 수행합니다.
- 데이터 세트 이름이
tutorial_dataset
로 설정되었는지 확인합니다. - 테이블 이름 필드에
tutorial
을 입력합니다. - 테이블 유형이 기본 테이블로 설정되어 있는지 확인합니다.
- 데이터 세트 이름이
스키마 섹션에 스키마 정의를 입력합니다. 텍스트로 편집을 사용 설정하고 다음 테이블 스키마를 JSON 배열로 입력합니다.
[ { "mode": "NULLABLE", "name": "url", "type": "STRING" }, { "mode": "NULLABLE", "name": "review", "type": "STRING" } ]
파티션 및 클러스터 설정에서 기본값(
No partitioning
)을 그대로 둡니다.고급 옵션 섹션에서 암호화의 기본값(
Google-managed key
)을 그대로 둡니다. 기본적으로 Dataflow는 비활성 상태로 저장된 고객 콘텐츠를 암호화합니다.테이블 만들기를 클릭합니다.
gcloud
bq mk
명령어를 사용하여 데이터 세트를 만듭니다.
bq --location=DATAFLOW_REGION mk \
PROJECT_ID:tutorial_dataset
PROJECT_ID
를 해당 프로젝트의 프로젝트 ID로 바꿉니다.
bq mk
명령어를 --table
또는 -t
플래그와 함께 사용하여 데이터 세트에 테이블을 만듭니다.
bq mk \
--table \
PROJECT_ID:tutorial_dataset.tutorial \
url:STRING,review:STRING
사용자 정의 함수(UDF) 만들기
선택적으로 자바스크립트 UDF를 만들어 Google에서 제공되는 Pub/Sub 주제를 BigQuery 템플릿으로 확장할 수 있습니다. UDF를 사용하면 템플릿에 제공되지 않은 데이터 변환을 정의하고 이를 템플릿에 삽입할 수 있습니다.
다음 UDF는 수신되는 등급의 URL을 검증합니다. URL이 없거나 잘못된 등급은 동일한 프로젝트 및 데이터 세트에서 데드 레터 테이블로도 알려진 _error_records
서픽스가 추가된 다른 출력 테이블로 전달됩니다.
자바스크립트
이 자바스크립트 스니펫을 이전에 만든 Cloud Storage 버킷에 저장합니다.
파이프라인 실행
Google에서 제공하는 BigQuery에 대한 Pub/Sub 주제 템플릿을 사용하여 스트리밍 파이프라인을 실행합니다. 파이프라인은 Pub/Sub 주제에서 수신 데이터를 가져와 BigQuery 데이터 세트에 데이터를 출력합니다.
콘솔
Google Cloud 콘솔에서 Dataflow 작업 페이지로 이동합니다.
템플릿에서 작업 만들기를 클릭합니다.
Dataflow 작업의 작업 이름을 입력합니다.
Dataflow 템플릿에 대해 BigQuery에 대한 Pub/Sub 주제 템플릿을 선택합니다.
Pub/Sub 주제 입력에 다음을 입력합니다.
projects/PROJECT_ID/topics/TOPIC_ID
PROJECT_ID
를 BigQuery 데이터 세트를 만든 프로젝트의 프로젝트 ID로,TOPIC_ID
를 Pub/Sub 주제의 이름으로 바꿉니다.BigQuery 출력 테이블에 다음을 입력합니다.
PROJECT_ID:tutorial_dataset.tutorial
임시 위치에 다음을 입력합니다.
gs://BUCKET_NAME/temp/
BUCKET_NAME
을 Cloud Storage 버킷의 이름으로 바꿉니다.temp
폴더는 스테이징된 파이프라인 작업과 같은 임시 파일을 저장합니다.선택적으로 선택적 매개변수 표시를 클릭하여 작업에 UDF를 포함합니다.
Cloud Storage의 자바스크립트 UDF 경로에 다음을 입력합니다.
gs://BUCKET_NAME/dataflow_udf_transform.js
자바스크립트 UDF 이름에 다음을 입력합니다.
process
작업 실행을 클릭합니다.
템플릿이 데드 레터 테이블로 메시지를 전달할 수 있는지 확인하려면 URL이 없거나 잘못된 등급을 게시합니다.
Pub/Sub 주제 페이지로 이동합니다.
TOPIC_ID를 클릭합니다.
메시지 섹션으로 이동합니다.
메시지 게시를 클릭합니다.
메시지 본문에 URL이 없거나 잘못된 등급을 입력합니다. 예를 들면 다음과 같습니다.
{"url": "https://beam.apache.org/documentation/sdks/java/", "review": "positive"}
게시를 클릭합니다.
gcloud
셸 또는 터미널에서 템플릿을 실행하려면 gcloud dataflow jobs run
명령어를 사용합니다.
gcloud dataflow jobs run JOB_NAME \
--gcs-location gs://dataflow-templates/latest/PubSub_to_BigQuery \
--region DATAFLOW_REGION \
--staging-location gs://BUCKET_NAME/temp \
--parameters \
inputTopic=projects/PROJECT_ID/topics/TOPIC_ID,\
outputTableSpec=PROJECT_ID:tutorial_dataset.tutorial
JOB_NAME
을 원하는 고유한 이름으로 바꿉니다.
선택적으로 UDF로 템플릿을 실행하려면 다음 명령어를 사용합니다.
gcloud dataflow jobs run JOB_NAME \
--gcs-location gs://dataflow-templates/latest/PubSub_to_BigQuery \
--region DATAFLOW_REGION \
--staging-location gs://BUCKET_NAME/temp \
--parameters \
inputTopic=projects/PROJECT_ID/topics/TOPIC_ID,\
outputTableSpec=PROJECT_ID:tutorial_dataset.tutorial,\
javascriptTextTransformGcsPath=gs://BUCKET_NAME/dataflow_udf_transform.js,\
javascriptTextTransformFunctionName=process
템플릿이 데드 레터 테이블로 메시지를 전달할 수 있는지 확인하려면 URL이 없거나 잘못된 등급을 게시합니다. 예를 들면 다음과 같습니다.
gcloud pubsub topics publish TOPIC_ID \
--message='{"url": "https://beam.apache.org/documentation/sdks/java/", "review": "positive"}'
결과 보기
BigQuery 테이블에 기록된 데이터를 봅니다.
콘솔
Google Cloud Console에서 BigQuery 페이지로 이동합니다.
BigQuery 페이지로 이동쿼리 편집기 창에서 다음 쿼리를 실행합니다.
SELECT * FROM `PROJECT_ID.tutorial_dataset.tutorial` LIMIT 1000
데이터가 테이블에 표시되는 데 최대 1분이 걸릴 수 있습니다.
이 쿼리는 지난 24시간 동안 테이블에 추가된 행을 반환합니다. 표준 SQL을 사용하여 쿼리를 실행할 수도 있습니다.
데드 레터 테이블에 일부 오류 레코드가 기록될 것으로 예상되면 쿼리에서 테이블 이름
tutorial_error_records
를 사용합니다. 예를 들면 다음과 같습니다.SELECT * FROM `PROJECT_ID.tutorial_dataset.tutorial_error_records` LIMIT 1000
gcloud
BigQuery에서 다음 쿼리를 실행하여 결과를 확인합니다.
bq query --use_legacy_sql=false 'SELECT * FROM `'"PROJECT_ID.tutorial_dataset.tutorial"'`'
이 파이프라인이 실행되는 동안 매분 BigQuery 테이블에 새 행이 추가됩니다.
데드 레터 테이블에 일부 오류 레코드가 기록될 것으로 예상되면 쿼리에서 테이블 이름 tutorial_error_records
를 사용합니다. 예를 들면 다음과 같습니다.
SELECT * FROM `PROJECT_ID.tutorial_dataset.tutorial_error_records`
LIMIT 1000
삭제
이 튜토리얼에서 사용된 리소스 비용이 Google Cloud 계정에 청구되지 않도록 하려면 리소스가 포함된 프로젝트를 삭제하거나 프로젝트를 유지하고 개별 리소스를 삭제하세요.
프로젝트 삭제
비용이 청구되지 않도록 하는 가장 쉬운 방법은 가이드에서 만든 Google Cloud 프로젝트를 삭제하는 것입니다.
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
개별 리소스 삭제
Dataflow 파이프라인 중지
콘솔
Google Cloud 콘솔에서 Dataflow 작업 페이지로 이동합니다.
중지할 작업을 클릭합니다.
작업을 중지하려면 작업 상태가 실행 중이어야 합니다.
작업 세부정보 페이지에서 중지를 클릭합니다.
취소를 클릭합니다.
선택을 확인하려면 작업 중지를 클릭합니다.
gcloud
Dataflow 작업을 취소하려면 gcloud dataflow jobs
명령어를 사용합니다.
gcloud dataflow jobs list \
--filter 'NAME=JOB_NAME AND STATE=Running' \
--format 'value(JOB_ID)' \
--region "DATAFLOW_REGION" \
| xargs gcloud dataflow jobs cancel --region "DATAFLOW_REGION"
Google Cloud 프로젝트 리소스 정리
콘솔
- Cloud Scheduler 작업을 삭제합니다.
- Google Cloud 콘솔에서 Cloud Scheduler 페이지로 이동합니다.
스케줄러 페이지로 이동 - 작업을 선택합니다.
- 페이지 상단의 삭제 버튼을 클릭하고 삭제를 확인합니다.
- Google Cloud 콘솔에서 Cloud Scheduler 페이지로 이동합니다.
- Pub/Sub 주제 및 구독을 삭제합니다.
- Google Cloud 콘솔에서 Pub/Sub 주제 페이지로 이동합니다.
Pub/Sub 주제 페이지로 이동 - 앞서 만든 주제를 선택합니다.
- 삭제를 클릭하여 주제를 영구 삭제합니다.
- Google Cloud 콘솔에서 Pub/Sub 구독 페이지로 이동합니다.
- 주제로 만든 구독을 선택합니다.
- 삭제를 클릭하여 주제를 영구 삭제합니다.
- Google Cloud 콘솔에서 Pub/Sub 주제 페이지로 이동합니다.
- BigQuery 테이블 및 데이터 세트를 삭제합니다.
- Google Cloud Console에서 BigQuery 페이지로 이동합니다.
BigQuery로 이동 - 탐색기 패널에서 프로젝트를 펼칩니다.
- 삭제하려는 데이터 세트 옆에 있는 작업 보기를 클릭한 다음 삭제를 클릭합니다.
- Google Cloud Console에서 BigQuery 페이지로 이동합니다.
- Cloud Storage 버킷을 삭제합니다.
- Google Cloud 콘솔에서 Cloud Storage 페이지로 이동합니다.
Cloud Storage 페이지로 이동 - 삭제할 버킷을 선택하고 삭제를 클릭한 후 안내를 따르세요.
- Google Cloud 콘솔에서 Cloud Storage 페이지로 이동합니다.
gcloud
Cloud Scheduler 작업을 삭제하려면
gcloud scheduler jobs delete
명령어를 사용합니다.gcloud scheduler jobs delete negative-ratings-publisher --location=DATAFLOW_REGION
gcloud scheduler jobs delete positive-ratings-publisher --location=DATAFLOW_REGION
Pub/Sub 구독 및 주제를 삭제하려면
gcloud pubsub subscriptions delete
및gcloud pubsub topics delete
명령어를 사용합니다.gcloud pubsub subscriptions delete SUBSCRIPTION_ID gcloud pubsub topics delete TOPIC_ID
BigQuery 테이블을 삭제하려면
bq rm
명령어를 사용합니다.bq rm -f -t PROJECT_ID:tutorial_dataset.tutorial
BigQuery 데이터 세트를 삭제합니다. 데이터 세트만으로는 비용이 발생하지 않습니다.
Cloud Storage 버킷을 삭제하려면
gsutil rm
명령어를 사용합니다. 버킷만으로는 비용이 발생하지 않습니다.
사용자 인증 정보 취소
-
Optional: Revoke the authentication credentials that you created, and delete the local credential file.
gcloud auth application-default revoke
-
Optional: Revoke credentials from the gcloud CLI.
gcloud auth revoke
프로젝트를 유지할 경우 Compute Engine 기본 서비스 계정에 부여한 역할을 취소합니다.
Google Cloud 콘솔에서 IAM 페이지로 이동합니다.
IAM으로 이동- 프로젝트, 폴더, 조직을 선택합니다.
- 액세스 권한을 취소하려는 주 구성원이 포함된 행을 찾으세요. 이 행에서 주 구성원 수정을 클릭합니다.
- 취소할 역할마다 삭제 버튼을 클릭한 다음 저장을 클릭합니다.
roles/dataflow.admin
roles/dataflow.worker
roles/bigquery.dataEditor
roles/pubsub.editor
roles/storage.objectAdmin
콘솔
gcloud
다음 IAM 역할마다 다음 명령어를 1회 실행합니다.
gcloud projects remove-iam-policy-binding PROJECT_ID \ --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \ --role=ROLE
다음 단계
- UDF로 Dataflow 템플릿 확장하기
- Dataflow 템플릿 사용에 대해 자세히 알아보기
- 모든 Google 제공 템플릿 살펴보기
- Pub/Sub를 사용하여 주제를 만들고 사용하고 구독을 만들고 사용하는 방법 읽어보기
- Cloud Scheduler를 사용하여 크론 작업 예약 및 실행에 대해 자세히 알아보기
- BigQuery를 사용하여 데이터 세트를 만드는 방법을 알아보기
- Google Cloud에 대한 참조 아키텍처, 다이어그램, 권장사항 살펴보기. Cloud 아키텍처 센터를 확인하세요.