Mainframe Connector 명령줄 참조

이 문서에서는 Mainframe Connector 명령줄 도구의 구문, 명령어, 플래그, 인수를 설명합니다.

명령어

bq export

BigQuery에서 테이블을 내보냅니다.

개요

bq export [options]

플래그 및 인수

이 명령어를 실행하려면 SQL 쿼리 (--sqlquery_dsn 플래그 참고)와 카피북 (cobDsn 플래그 참고)을 제공해야 합니다. 로컬, 원격, 독립형 모드에서 이 명령어를 실행할 수 있습니다. 원격 모드의 경우 --bucket, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요. bq export 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
(선택사항) legacy SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--batch
(선택사항) 배치 모드에서 쿼리를 실행합니다.
--bucket=BUCKET
(선택사항) 명령의 출력을 기록할 Cloud Storage 내 위치를 지정합니다. run_modegcsoutput이면 이 매개변수를 gs://example-bucket/example-prefix/example-filename.orc 형식의 Cloud Storage URI로 설정해야 합니다. 그렇지 않으면 출력 파일이 대상 경로 gs://BUCKET/EXPORT/에 기록됩니다. 이 인수는 원격 모드에 필요합니다.
--cobDsn=DSN
(선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE
(선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
(선택사항) 쿼리를 실행하지 않고 검사합니다.
--encoding=ENCODING
(선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 이 값을 제공하면 ENCODING 환경 변수로 설정된 기본값이 재정의됩니다.
--exporter_thread_count=COUNT
(선택사항) 내보내기 도구 스레드 수를 설정합니다. 기본값은 4입니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--keepAliveTimeInSeconds=SECONDS
(선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--max_read_queue=NUMBER
(선택사항) Avro 레코드 대기열의 최대 크기를 설정합니다. 기본값은 스레드 수의 두 배입니다.
--max_read_streams=NUMBER
(선택사항) 읽기 스트림 스레드의 최대 수를 설정합니다. 기본값은 4입니다.
--maximum_bytes_billed=BYTES
(선택사항) 쿼리에 청구되는 바이트를 제한합니다.
--order_response
(선택사항) BigQuery에서 반환된 순서대로 응답을 유지합니다.
--outDD=OUTPUT
(선택사항) z/OS의 지정된 데이터 세트에 출력 레코드를 작성합니다. 기본값은 DD OUTFILE입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--query_dsn=DSN
(선택사항) z/OS의 지정된 데이터 세트에서 쿼리를 읽습니다. HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식을 사용하세요. 값을 제공하지 않으면 Mainframe Connector가 DD QUERY에서 읽습니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정하세요.
--remotePort=PORT
(선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정하세요.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정하세요.
--run_mode=MODE
(선택사항) 내보내기 구현을 선택합니다. 다음 옵션 중 하나를 사용할 수 있습니다.
  • directstorage: 바이너리 파일이 로컬에 저장됩니다 (기본값).
  • gcsoutput: 바이너리 파일이 Cloud Storage에 저장됩니다.
--sql=SQL
(선택사항) 실행할 BigQuery SQL 쿼리를 지정합니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--timeOutMinutes=MINUTES
(선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 설정합니다. 기본값은 90분입니다.
--transcoding_buffer=BUFFER
(선택사항) 스레드당 트랜스코딩 버퍼의 크기(MB)를 설정합니다. 기본값은 20입니다.
--use_cache={true|false}
(선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다.
--use_legacy_sql
(선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.

bq load

BigQuery 테이블에 데이터를 로드합니다.

개요

bq load [options] tablespec path

플래그 및 인수

bq load 명령어는 다음 플래그와 인수를 사용합니다.

path
소스 파일 URI의 쉼표로 구분된 목록을 지정합니다. 지원되는 형식은 gs://bucket/path입니다. 예를 들면 gs://my-bucket/data.orc,gs://my-bucket/more-data.orc입니다.
tablespec
데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]
입니다.
--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_jagged_rows
(선택사항) CSV 데이터에서 후행 선택 열이 누락된 것을 허용합니다.
--allow_quoted_newlines
(선택사항) CSV 데이터 내에 따옴표가 있는 줄바꿈을 허용합니다.
--append_table
(선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--autodetect
(선택사항) CSV 및 JSON 데이터에 스키마 자동 감지를 사용 설정합니다.
--clustering_fields=FIELDS
(선택사항) 이 플래그를 지정하면 쿼리의 대상 테이블이 쉼표로 구분된 열 목록을 통해 클러스터링됩니다. 수집 시간으로 파티션을 나눈 테이블이나 DATE 열 또는 TIMESTAMP 열로 파티션을 나눈 테이블을 만들 때는 이 플래그와 함께 시간으로 파티션 나누기 플래그를 사용해야 합니다. 이 플래그를 지정하면 테이블은 파티션으로 나눠진 후 열을 통해 클러스터링됩니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--debug_mode={true|false}
(선택사항) 로깅 수준을 디버그로 설정합니다.
--destination_kms_key=KEY
(선택사항) 대상 테이블 데이터의 암호화에 사용할 Cloud KMS 키입니다.
--encoding 또는 -E=ENCODING
(선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은 ENCODING 환경 변수로 설정된 기본값을 재정의합니다.
--field_delimiter 또는 -F=FIELD
(선택사항) CSV 데이터의 열 구분 기호를 지정합니다. 탭 구분 기호에는 \t 또는 tab를 사용합니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--ignore_unknown_values=VALUES
(선택사항) CSV 또는 JSON 데이터에서 인식할 수 없는 추가 값을 무시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--max_bad_records=RECORDS
(선택사항) 작업이 실패하기 전에 허용되는 잘못된 레코드의 최대 수를 설정합니다. --max_bad_records 값과 관계없이 모든 유형에 오류가 최대 5개까지 반환됩니다. 이 플래그는 CSV, JSON, Google Sheets 데이터 로드에만 적용됩니다. 기본값은 0입니다.
--max_polling_interval_ms=MILLISECONDS
(선택사항) BigQuery 작업의 최대 대기 시간입니다.
--null_marker=MARKER
(선택사항) CSV 데이터에서 NULL 값을 나타내는 맞춤 문자열을 지정합니다.
--projection_fields=FIELDS
(선택사항) --source_formatDATASTORE_BACKUP으로 설정하면 이 플래그는 Datastore 내보내기에서 로드할 항목 속성을 나타냅니다. 쉼표로 구분된 목록에 속성 이름을 지정합니다. 속성 이름은 대소문자를 구분하며 최상위 속성을 참조해야 합니다. 이 플래그는 Firestore 내보내기에도 사용할 수 있습니다.
--quote=QUOTE
(선택사항) CSV 데이터의 필드를 묶을 따옴표 문자를 지정합니다. 1바이트 문자를 인수로 지정할 수 있습니다. 기본값은 큰따옴표 (")입니다. 따옴표가 없도록 지정하려면 빈 문자열을 사용합니다.
--replace
(선택사항) 대상 테이블의 기존 데이터를 로드된 데이터로 바꿉니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며 --time_partitioning_field 플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 false입니다.
--schema=SCHEMA
(선택사항) 대상 테이블의 스키마를 정의합니다. [FIELD]:[DATA_TYPE] 형식의 쉼표로 구분된 열 정의 목록으로 값을 지정합니다. 예: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(선택사항) 로드 작업 또는 쿼리 작업에서 테이블에 데이터를 추가할 때 또는 테이블 파티션을 덮어쓸 때 대상 테이블의 스키마를 업데이트하는 방법을 지정합니다. 다음 중 한 가지 값을 사용합니다.
  • ALLOW_FIELD_ADDITION: 새 필드를 추가하도록 허용
  • ALLOW_FIELD_RELAXATION: REQUIRED 필드를 NULLABLE로 완화하도록 허용
여러 스키마 업데이트 옵션을 지정하려면 이 플래그를 반복합니다.
--skip_leading_rows=NUMBER
(선택사항) 소스 파일의 시작 부분에서 건너뛸 행 수를 지정합니다. 기본값은 0입니다.
--source_format=FORMAT
(선택사항) 소스 데이터의 형식을 지정합니다. CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (Filestore의 경우 이 값을 사용), PARQUET, ORC 중 하나를 사용할 수 있습니다. 기본값은 ORC입니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE
(선택사항) 테이블에 시간 기준 파티션 나누기를 사용 설정하고 DAY 값을 사용하여 파티션 유형을 설정합니다.
--use_avro_logical_types={true|false}
(선택사항) --source_formatAVRO로 설정된 경우 이 플래그를 true로 설정하여 INTEGER와 같은 원시 유형만 사용하지 않고 논리 유형을 TIMESTAMP와 같은 해당 유형으로 변환합니다. 기본값은 false입니다.

bq mk

파티셔닝 및 클러스터링을 설정해야 하는 기본 제공 테이블 또는 외부 테이블과 같은 BigQuery 리소스를 만듭니다. bq mk 명령어를 사용하여 --schema_from_copybook 플래그를 사용하여 COBOL 카피북을 파싱하여 BigQuery 테이블을 직접 생성할 수도 있습니다.

개요

bq mk [options]

플래그 및 인수

bq mk 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--tablespec=TABLE
데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]입니다.
--clustering_fields=FIELDS
(선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 포함된 쉼표로 구분된 목록을 지정합니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--description=DESCRIPTION
(선택사항) 데이터 세트 또는 테이블에 대한 설명을 제공합니다.
--dry_run
(선택사항) 테이블의 데이터 정의 언어 (DDL) 문을 출력합니다.
--encoding=ENCODING
(선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은 ENCODING 환경 변수로 설정된 기본값을 재정의합니다.
--expiration=EXPIRATION
(선택사항) 테이블 수명을 지정합니다. 값을 지정하지 않으면 BigQuery에서 데이터 세트의 기본 테이블 수명으로 테이블을 만들거나 테이블이 만료되지 않습니다.
--external_table_definition 또는 -e=TABLE
(선택사항) 외부 테이블을 만들 이름과 스키마 정의를 지정합니다. 예: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며 --time_partitioning_field 플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 true입니다.
--schema=SCHEMA
(선택사항) 로컬 JSON 스키마 파일의 경로 또는 FIELD:DATA_TYPE, FIELD:DATA_TYPE 등의 형식으로 된 쉼표로 구분된 열 정의 목록을 지정합니다.
--schema_from_copybook=SCHEMA
(선택사항) 카피북에서 스키마를 생성합니다.
--table 또는 -t=TABLE
(선택사항) 테이블을 만듭니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--view
(선택사항) 뷰를 만듭니다.

bq query

BigQuery 쿼리를 실행합니다.

개요

bq query [options]

플래그 및 인수

이 명령어는 로컬 모드와 원격 모드에서 실행할 수 있습니다. 원격 모드의 경우 --remoteHost, --remotePort, --remoteUrl 플래그와 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 참고하세요. bq query 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
(선택사항) legacy SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--append_table
(선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--batch
(선택사항) 배치 모드에서 쿼리를 실행합니다.
--clustering_fields=FIELDS
(선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 포함된 쉼표로 구분된 목록을 지정합니다. 파티션 나누기를 지정하여 이 값을 지정하면 테이블이 먼저 파티션으로 나누어진 후 각 파티션이 제공된 열을 사용하여 클러스터링됩니다.
--create_if_needed
(선택사항) 대상 테이블이 없으면 만듭니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE
(선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
(선택사항) 쿼리를 실행하지 않고 검사합니다.
--follow={true|false}
(선택사항) 개별 쿼리 단계 또는 스크립트 전체를 추적하려면 true로 설정합니다. 기본값은 false입니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--maximum_bytes_billed=BYTES
(선택사항) 쿼리에 청구되는 바이트의 한도를 지정합니다.
--parameters=PARAMETERS
(선택사항) [NAME]:[TYPE]:[VALUE] 형식으로 쉼표로 구분된 쿼리 매개변수를 지정합니다. 이름이 비어 있으면 위치 매개변수가 생성됩니다. name::value 또는 ::value 형식의 STRING 값을 사용하려면 [TYPE]을 생략해도 됩니다. NULL은 null 값을 생성합니다.
--query_dsn=DSN
(선택사항) HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식으로 쿼리를 읽어올 DSN을 지정합니다. query_dsn가 제공되지 않으면 QUERY DD가 사용됩니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--remotePort=PORT
(선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--replace
(선택사항) 대상 테이블을 쿼리 결과로 덮어씁니다.
--report_row_limit=LIMIT
(선택사항) 감사 보고서에 인쇄할 최대 행 수를 지정합니다. 기본값은 30입니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 기본값은 true입니다.
--schema_update_option=OPTION
(선택사항) 데이터를 추가할 때 대상 테이블의 스키마를 업데이트합니다. 다음 값을 사용합니다.
  • ALLOW_FIELD_ADDITION: 새 필드를 추가하도록 허용
  • ALLOW_FIELD_RELAXATION: REQUIRED 필드를 NULLABLE로 완화하도록 허용
--split_sql={true|false}
(선택사항) 입력 SQL 스크립트를 개별 쿼리로 분할하려면 true로 설정합니다. 기본값은 true입니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--sync={true|false}
(선택사항) 동기 모드로 명령어를 실행합니다.
--synchronous_mode={true|false}
(선택사항) --sync의 대체 매개변수입니다.
--timeOutMinutes=MINUTES
(선택사항) BigQuery 작업 응답의 제한 시간을 분 단위로 지정합니다. 기본값은 240분입니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE
(선택사항) 테이블에서 시간 기반 파티션 나누기를 사용 설정하고 다음 값 중 하나를 사용하여 파티션 유형을 설정합니다. DAY, HOUR, MONTH, YEAR
--use_cache={true|false}
(선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다. 기본값은 true입니다.
--use_legacy_sql
(선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.

cloud run job cancel

특정 작업 실행을 취소합니다.

개요

cloud run job cancel [-h] --project=PROJECT
                            --region=REGION EXECUTION

플래그 및 인수

cloud run job cancel 명령어는 다음 플래그와 인수를 사용합니다.

EXECUTION
Cloud Run 작업 실행 ID의 이름을 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--project=PROJECT
프로젝트 ID를 지정합니다.
--region=REGION
리소스를 찾을 수 있는 리전을 지정합니다.

cloud run job execute

특정 작업을 실행합니다.

개요

cloud run job execute [-h] [--async] [--tail-logs] [--wait]
                             [--dump-execution-id=EXECUTION-ID]
                             [--polling-interval=POLLINGINTERVAL]
                             --project=PROJECT
                             --region=REGION
                             [--task-timeout=TIMEOUT]
                             [--args=ARGS]...
                             [--update-env-vars=ENVVARS]...
                             JOB

플래그 및 인수

cloud run job execute 명령어는 다음 플래그와 인수를 사용합니다.

JOB
실행할 Cloud Run 작업의 이름을 지정합니다.
--args=ARGS
(선택사항) 컨테이너 이미지에서 실행하는 명령어에 전달되는 쉼표로 구분된 인수입니다. 제공된 경우 입력 값으로 실행이 생성됩니다.
--async
(선택사항) 진행 중인 작업이 완료될 때까지 기다리지 않고 즉시 반환하려면 이 플래그를 지정합니다.
--dump-execution-id=EXECUTION-ID : DataPath
(선택사항) 실행 ID를 작성할 파일을 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--polling-interval=POLLINGINTERVAL
(선택사항) --tail_logs가 사용 설정된 경우 로그를 표시하기 위한 폴링 간격을 설정합니다. 기본값은 60초입니다.
--project=PROJECT
프로젝트 ID를 지정합니다.
--region=REGION
리소스를 찾을 수 있는 리전을 지정합니다.
--tail-logs
(선택사항) --tail_logs 플래그를 지정하여 동기 모드로 명령어를 실행하면 Mainframe Connector가 화면에 진행률 로그를 표시합니다. --tail_logs--async 플래그를 모두 지정하면 오류 메시지가 표시됩니다. Cloud Logging은 실시간 로깅을 지원하지 않으므로 명령어는 로그에 이미 기록된 로그만 표시합니다. 따라서 --tail_logs 플래그를 사용하면 일부 로그가 누락될 수 있습니다. 전체 작업 로그를 보려면 작업이 완료된 후 cloud run job log 명령어를 사용하세요.
--task-timeout=TIMEOUT
(선택사항) 작업 태스크 시도가 실행될 수 있는 기존 최대 시간 (기한)을 표시합니다. 지정하지 않으면 작업 기본값이 사용됩니다.
--update-env-vars=ENVVARS
(선택사항) 작업 실행의 환경 변수 재정의로 설정할 키-값 쌍 목록입니다.
--wait
(선택사항) 실행이 완료될 때까지 명령어가 대기하도록 하려면 이 플래그를 지정합니다.

cloud run job log

Cloud Run 로그 표시

개요

cloud run job log [-h] [--tail] [--log-filter=FILTER]
                         [--polling-interval=POLLINGINTERVAL]
                         --project=PROJECT
                         --region=REGION
                         [--timeout=TIMEOUT] EXECUTION-ID

플래그 및 인수

cloud run job log 명령어는 다음 플래그와 인수를 사용합니다.

EXECUTION-ID
Cloud Run 작업 실행 ID의 이름입니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--log-filter=FILTER
(선택사항) 반환할 로그 항목을 지정하는 필터 표현식입니다.
--polling-interval=POLLINGINTERVAL
(선택사항) --tail_logs가 사용 설정된 경우 로그를 표시하기 위한 폴링 간격을 설정합니다. 기본값은 60초입니다.
--project=PROJECT
프로젝트 ID를 지정합니다.
--region=REGION
리소스를 찾을 수 있는 리전을 지정합니다.
--tail
(선택사항) 설정된 경우 지금부터 시작되는 새 로그만 표시합니다. 설정하지 않으면 모든 작업 로그가 표시됩니다.
--timeout=TIMEOUT
(선택사항) 명령어가 종료될 때까지의 제한 시간입니다. 설정하지 않으면 실행이 종료될 때 명령어가 시간 초과됩니다.

copy binary

소스 경로에서 대상 경로로 바이너리 데이터 세트를 복사합니다.

개요

copy binary [-h] [--compress] [--buffer-size=BUFFERSIZE]
                   INPUT OUTPUT

플래그 및 인수

copy binary 명령어는 다음 플래그와 인수를 사용합니다.

INPUT : DataPath
복사할 입력 파일의 데이터 경로를 지정합니다.
OUTPUT : DataPath
복사할 출력 파일의 데이터 경로를 지정합니다.
--buffer-size=BUFFERSIZE : DataSize
(선택사항) 각 데이터 청크의 메모리 읽기 크기를 나타냅니다. 기본값은 64MiB입니다.
--compress
(선택사항) true인 경우 출력 파일이 GZIP을 사용하여 압축됩니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.

copy text

텍스트 데이터 세트를 복사합니다.

개요

copy text [-h] [--buffer-size=BUFFERSIZE] INPUT
                 OUTPUT

플래그 및 인수

copy text 명령어는 다음 플래그와 인수를 사용합니다.

INPUT : DataPath
복사할 입력 파일의 데이터 경로를 지정합니다.
OUTPUT : DataPath
복사하고 인코딩할 출력 파일의 데이터 경로를 지정합니다.
--buffer-size=BUFFERSIZE : DataSize
(선택사항) 각 데이터 청크의 메모리 읽기 크기를 나타냅니다. 기본값은 64MiB입니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.

gsutil cp

메인프레임의 데이터를 Cloud Storage 버킷으로 트랜스코딩합니다.

개요

gsutil cp [options] gcsUri [dest]

플래그 및 인수

이 명령어는 다음과 같은 다양한 목적으로 사용할 수 있습니다.

  • 메인프레임 또는 Linux 환경에서 Cloud Storage로 파일을 복사하고 트랜스코딩합니다.
    • 출처: --inDSN 제공되지 않은 경우 DD INFILE로 지정됩니다.
    • 대상: gcsUri
  • Cloud Storage 내에서 파일 복사 및 트랜스코딩
    • 소스: gcsUri
    • 대상: --destPath
  • Cloud Storage에서 메인프레임으로 파일을 복사합니다.
    • 소스: gcsUri
    • 대상: --destDSN
    • 관련 플래그: --lrecl, --blksize, --recfm, --noseek
  • Cloud Storage에서 Linux 환경으로 파일을 복사합니다.
    • 소스: gcsUri
    • 대상: --destPath
이 명령어는 로컬, 원격, 독립형 모드에서 실행할 수 있습니다. 원격 모드의 경우 --remote, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요. gsutil cp 명령어는 다음 플래그와 인수를 사용합니다.

dest
(선택사항) 로컬 경로 또는 데이터 소스 이름 (DSN)입니다. 예시 형식: /path/to/file, DATASET.MEMBER
gcsUri
gs://bucket/path 형식의 Cloud Storage URI입니다. 사용에 따라 소스 및 대상 위치를 모두 나타낼 수 있습니다.
--batchSize=SIZE
(선택사항) 배치당 사용할 블록을 지정합니다. 기본값은 1000입니다.
--blksize=SIZE
(선택사항) 메인프레임에 복사할 파일의 블록 크기를 지정합니다. blksize=0이고 recfm이 U가 아닌 경우 메인프레임 시스템은 파일의 최적 블록 크기를 결정합니다.
--cobDsn=DSN
(선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--connections=NUMBER
(선택사항) 원격 수신기에 연결할 수 있는 연결 수를 지정합니다. 기본값은 10입니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destDSN=OUTPUT
(선택사항) 대상 DSN을 지정합니다.
--destPath=OUTPUT
(선택사항) 대상 경로를 지정합니다.
--dry_run
(선택사항) 카피북 파싱 및 QSAM 파일 디코딩을 테스트합니다.
--encoding=ENCODING
(선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은 ENCODING 환경 변수로 설정된 기본값을 재정의합니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--inDsn=DSN
(선택사항) 사용할 infile DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD INFILE에서 읽습니다.
--keepAliveTimeInSeconds=SECONDS
(선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--lowerCaseColumnNames
(선택사항) 카피북 필드의 소문자 열 이름을 만듭니다.
--lrecl=LRECL
(선택사항) 메인프레임에 복사할 파일의 논리 레코드 길이 (lrecl)를 지정합니다.
--maxChunkSize=SIZE
(선택사항) 배치당 최대 청크 크기를 지정합니다. 크기를 설명할 때는 K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB 또는 TB를 사용해야 합니다. 기본값은 128MiB입니다.
--max_error_pct=PCT
(선택사항) 행 디코딩 오류의 작업 실패 기준을 지정합니다. 유효한 값은 [0.0, 1.0] 범위 내에 있습니다. 기본값은 0입니다.
--noseek
(선택사항) Cloud Storage에서 메인프레임으로의 다운로드 성능을 개선합니다.
--parallel 또는 -m
(선택사항) 동시 작성자 수를 4로 설정합니다.
--parallelism 또는 -p=NUMBER
(선택사항) 동시 작성자 수를 지정합니다. 기본값은 4입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--preload_chunk_count=NUMBER
(선택사항) 모든 작업자가 사용 중인 동안 디스크에서 미리 로드할 청크 수를 지정합니다. 기본값은 2입니다.
--project_id=ID
(선택사항) 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--recfm=REFCM
(선택사항) 메인프레임에 복사할 파일의 recfm을 지정합니다. F, FB, V, VB, U 중 하나를 사용할 수 있습니다. 기본값은 FB입니다.
--remote
(선택사항) 원격 디코더를 사용합니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정하세요.
--remotePort=PORT
(선택사항) 사용할 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정하세요.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정하세요.
--replace
(선택사항) 업로드하기 전에 대상 디렉터리를 재귀적으로 삭제합니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--tfDSN=DSN
(선택사항) DSN, DATASET.MEMBER 또는 PDS(MBR)의 변환을 지정합니다.
--tfGCS=GCS
(선택사항) Cloud Storage에서 변환 파일을 지정합니다.
--timeOutMinutes=MINUTES
(선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 지정합니다. 기본값은 Cloud Storage의 경우 90분, 메인프레임의 경우 50분입니다.

gsutil rm

Cloud Storage 객체를 삭제합니다.

개요

gsutil rm [-hR] URL...

플래그 및 인수

gsutil rm 명령어는 다음 플래그와 인수를 사용합니다.

URL
Cloud Storage 위치를 gs://bucket/prefix 형식으로 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
-R 또는 -r
(선택사항) 경로 표현식과 일치하는 디렉터리 또는 객체의 콘텐츠를 재귀적으로 삭제합니다. 디렉터리 또는 객체가 존재하지 않으면 오류가 발생하지 않습니다.

pubsub topics publish

메시지를 Pub/Sub 주제에 게시합니다.

이 명령어를 사용하면 --data 플래그를 사용하여 직접 또는 --data-path 플래그를 사용하여 파일을 통해 메시지 데이터를 전송할 수 있습니다. 속성, 순서 지정 키를 포함하고 메시지 속성을 적용할 수도 있습니다. 또한 메시지 콘텐츠에 동적 문자열 대체를 적용할 수 있습니다.

개요

pubsub topics publish [-h] [--data=DATA]
                             [--data-path=DATAPATH]
                             [--ordering-key=ORDERING-KEY]
                             [--attributes=NAME=VALUE[,
                             NAME=VALUE...]]...
                             [--message-property=KEY=VALUE]...
                             [--substitution=KEY=VALUE]...
                             TOPIC

플래그 및 인수

pubsub topics publish 명령어는 다음 플래그와 인수를 사용합니다.

TOPIC
projects/{project}/topics/{topic} 형식으로 주제 이름을 지정합니다.
--attributes=NAME=VALUE
(선택사항) 쉼표로 구분된 속성 목록을 지정합니다. 각 ATTRIBUTE의 형식은 name=value입니다. 최대 100개의 속성을 지정할 수 있습니다. 전체 속성 가이드라인 목록은 속성을 사용하여 메시지 게시를 참고하세요.
--data-path=DATAPATH : DataPath
(선택사항) 메시지의 데이터를 포함하는 파일의 경로를 지정합니다. --data 또는 --data-path 중 하나의 플래그를 설정해야 하며, 둘 다 설정할 수는 없습니다. 메시지 형식 및 크기 제한에 대한 자세한 내용은 주제에 메시지 게시를 참고하세요.
--data=DATA
(선택사항) 지정된 주제 이름에 게시할 메시지의 본문을 지정합니다. --data 또는 --data-path 중 하나의 플래그를 설정해야 하며, 둘 다 설정할 수는 없습니다. 메시지 형식 및 크기 제한에 대한 자세한 내용은 주제에 메시지 게시를 참고하세요.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--message-property=KEY=VALUE
(선택사항) 메시지에 적용할 속성을 지정합니다. 유효한 속성 키는 encoding입니다. 이 속성 키는 메시지 문자열에 사용할 문자 인코딩을 지정합니다. 메시지 문자열은 Pub/Sub 주제로 전송되기 전에 이 인코딩을 사용하여 바이트로 변환됩니다. 지원되는 인코딩 값 목록은 지원되는 인코딩을 참고하세요. 기본값은 UTF-8입니다.
--ordering-key=ORDERING-KEY
(선택사항) 구독자에게 메시지가 순서대로 전송되도록 하는 키를 지정합니다. 순서 키가 동일한 모든 메시지는 Pub/Sub가 수신하는 순서대로 구독자에게 전송됩니다.
--substitution=KEY=VALUE

(선택사항) --data 또는 --data-path를 사용하여 Pub/Sub 메시지 데이터에 적용할 동적 대체에 사용할 키-값 쌍을 지정합니다. Mainframe Connector는 메시지 데이터에서 자리표시자를 검색하고 해당 값으로 바꿉니다. ${KEY} 구문을 사용하여 데이터의 자리표시자를 정의합니다(예: ${NAME}). 각 대체 항목을 KEY=VALUE 형식을 사용하여 키-값 쌍으로 지정합니다. --substitution key1=value1 --substitution key2=value2 옵션을 반복하여 여러 대체 항목을 지정할 수 있습니다.

예를 들어 입력 데이터가 Hello, ${username}!이고 --substitution username=World를 사용하는 경우 Pub/Sub로 전송되는 메시지는 Hello, World!입니다.

qsam decode

QSAM 데이터를 디코딩합니다.

이 명령어는 --output-format 인수를 사용하여 지정한 형식으로 QSAM 파일의 레코드를 디코딩합니다. 원본 QSAM 파일은 --max-chunk-size 인수로 지정한 값을 기반으로 청크로 분할됩니다. 트랜스코딩된 출력은 사전순으로 정렬된 파일로 타겟 경로에 저장됩니다.

개요

qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE]
                   --copybook=COPYBOOK
                   [--max-error-percent=MAX_ERROR_PERCENT]
                   [--output-format=FORMAT]
                   [--parallelism=COUNT]
                   [--preload-chunk-count=PRELOAD_CHUNK_COUNT]
                   [--transcode-configuration=CONFIG]
                   [--input-parameter=KEY=VALUE]... INPUT
                   OUTPUT

플래그 및 인수

qsam decode 명령어는 다음 플래그와 인수를 사용합니다.

INPUT : DataPath
디코딩할 QSAM 파일의 데이터 경로를 지정합니다.
OUTPUT : DataPath
출력 접두사의 데이터 경로를 지정합니다. 모든 출력은 이 접두사 아래에 저장됩니다.
--chunk-size=CHUNK-SIZE : DataSize
(선택사항) 각 출력 파일에 포함할 입력 데이터의 양을 지정합니다. 출력 파일이 더 크거나 작을 수 있습니다. 청크 크기는 논리 레코드 길이의 가장 가까운 배수로 내림됩니다. 기본값은 128MiB입니다.
--copybook=COPYBOOK : DataPath
카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--input-parameter=KEY=VALUE

(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는 KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.

  • csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는 DataPath입니다.
  • json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는 DataPath입니다.
  • pubsub-publish-configuration: Pub/Sub에 전송되는 메시지를 구성합니다. 값은 Pub/Sub 구성 파일을 가리키는 DataPath입니다.
  • output-prefix: 출력 파일에 접두사를 추가합니다.
--max-error-percent=MAX_ERROR_PERCENT

(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.

--output-format=FORMAT : TranscodeFormat

(선택사항) 출력 파일의 형식을 지정합니다. Pub/Sub 주제의 DataPathOUTPUT의 값으로 제공하면 기본 출력 형식은 JSONL입니다. 다른 모든 DataPaths의 경우 기본 출력 형식은 ORC입니다.

--parallelism=COUNT

(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수보다 작거나 같아야 합니다. 기본값은 1입니다.

--preload-chunk-count=PRELOAD_CHUNK_COUNT

(선택사항) 모든 스레드가 처리 중일 때 미리 로드할 데이터 청크 수를 지정합니다. 기본값은 1입니다.

--replace

(선택사항) 지정된 경우 디코딩 결과를 쓰기 전에 출력 경로를 재귀적으로 삭제합니다.

--transcode-configuration=CONFIG : DataPath

(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.

qsam encode

QSAM 데이터를 인코딩합니다.

이 명령어는 외부 소스의 데이터를 가져와 QSAM 파일로 변환합니다. 입력은 --input-format 인수를 사용하여 지정한 값으로 정의됩니다.

개요

qsam encode [-h] --copybook=COPYBOOK
                   --input-format=FORMAT
                   [--input-stream-count=COUNT]
                   [--max-error-percent=MAX_ERROR_PERCENT]
                   [--parallelism=COUNT]
                   [--spillover=SPILLOVER]
                   [--transcode-configuration=CONFIG]
                   [--input-parameter=KEY=VALUE]... INPUT
                   OUTPUT

플래그 및 인수

qsam encode 명령어는 다음 플래그와 인수를 사용합니다.

INPUT : DataPath
QSAM 파일로 인코딩할 입력 파일의 데이터 경로를 지정합니다.
OUTPUT : DataPath
인코딩할 QSAM 파일의 데이터 경로를 지정합니다.
--copybook=COPYBOOK : DataPath
카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--input-format=FORMAT : TranscodeInputFormat
입력의 형식을 지정합니다.
--input-parameter=KEY=VALUE

(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는 KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.

  • csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는 DataPath입니다.
  • json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는 DataPath입니다.
  • project-id: ORC의 경우 Cloud Storage 프로젝트 ID입니다.
--input-stream-count=COUNT

(선택사항) 입력 스트림 수를 지정합니다. 이는 최대값이며 실제로는 더 적은 스트림이 사용될 수 있습니다. 기본값은 1입니다.

--max-error-percent=MAX_ERROR_PERCENT

(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.

--parallelism=COUNT

(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수 이하여야 합니다. 기본값은 1입니다.

--spillover=SPILLOVER : DataPath

(선택사항) 스필오버 데이터 세트의 데이터 경로를 지정합니다. 이 정보를 지정하지 않으면 오류 세부정보가 삭제됩니다.

--transcode-configuration=CONFIG : DataPath

(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.

scp

Cloud Storage에 파일을 복사합니다.

개요

scp [options] [input] [output]

플래그 및 인수

이 명령어를 사용하려면 다음 사항을 확인해야 합니다.

  • input, --inDD 또는 --inDsn를 통해 고유한 입력 값을 하나 설정합니다.
  • 출력 또는 --gcsOutUri를 통해 고유한 출력 값을 하나 설정합니다.

scp 명령어는 다음 플래그와 인수를 사용합니다.

input
(선택사항) 복사할 DD 또는 DSN을 지정합니다. 대신 --inDD 또는 --inDsn를 사용할 수 있습니다.
output
(선택사항) gs://[BUCKET]/[PREFIX] 형식을 사용하여 출력의 URI를 지정합니다. 대신 --gcsOutUri을 사용할 수 있습니다.
--compress
(선택사항) gzip으로 출력을 압축합니다.
--count 또는 -n=RECORDS
(선택사항) 복사할 레코드 수를 지정합니다. 기본값은 무제한입니다.
--encoding=ENCODING
(선택사항) 입력 문자 인코딩을 지정합니다. 기본값은 CP037입니다.
--gcsOutUri=URI
(선택사항) 파일 복사본의 대상 Cloud Storage URI를 지정합니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--inDD=INPUT
(선택사항) 복사할 DD 파일을 지정합니다. 기본값은 DD INFILE입니다.
--inDsn=INPUT
(선택사항) 복사할 DSN을 지정합니다.
--noConvert
(선택사항) 문자 입력을 ASCII로 변환하지 않습니다. 문자 변환은 기본적으로 사용 설정되어 있습니다.

systemreport

시스템 보고서를 제공합니다.

개요

systemreport [-h] [--available-security-providers] [--supported-ciphers]

플래그 및 인수

systemreport 명령어는 다음 플래그와 인수를 사용합니다.

--available-security-providers
(선택사항) 지원되는 보안 제공업체를 출력합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--supported-ciphers
(선택사항) 지원되는 암호를 출력합니다.

vsam decode

VSAM 데이터를 디코딩합니다.

이 명령어는 --output-format 인수를 사용하여 VSAM 파일의 레코드를 지정된 형식으로 디코딩합니다. 원래 VSAM 파일은 --max-chunk-size 인수로 지정한 값을 기반으로 청크로 분할됩니다. 트랜스코딩된 출력은 사전순으로 정렬된 파일로 타겟 경로에 저장됩니다.

개요

vsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE]
                   --copybook=COPYBOOK
                   [--max-error-percent=MAX_ERROR_PERCENT]
                   [--output-format=FORMAT]
                   [--parallelism=COUNT]
                   [--preload-chunk-count=PRELOAD_CHUNK_COUNT]
                   [--transcode-configuration=CONFIG]
                   [--input-parameter=KEY=VALUE]... INPUT
                   OUTPUT

플래그 및 인수

vsam decode 명령어는 다음 플래그와 인수를 사용합니다.

INPUT : DataPath
디코딩할 VSAM 파일의 데이터 경로를 지정합니다.
OUTPUT : DataPath
출력 접두사의 데이터 경로를 지정합니다. 모든 출력은 이 접두사 아래에 저장됩니다.
--chunk-size=CHUNK-SIZE : DataSize
(선택사항) 각 출력 파일에 포함할 입력 데이터의 양을 지정합니다. 출력 파일이 더 크거나 작을 수 있습니다. 청크 크기는 논리 레코드 길이의 가장 가까운 배수로 내림됩니다. 기본값은 128MiB입니다.
--copybook=COPYBOOK : DataPath
카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help 또는 -h
(선택사항) 이 도움말 메시지를 표시합니다.
--input-parameter=KEY=VALUE

(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는 KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.

  • csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는 DataPath입니다.
  • json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는 DataPath입니다.
  • pubsub-publish-configuration: Pub/Sub에 전송되는 메시지를 구성합니다. 값은 Pub/Sub 구성 파일을 가리키는 DataPath입니다.
  • output-prefix: 출력 파일에 접두사를 추가합니다.
--max-error-percent=MAX_ERROR_PERCENT

(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.

--output-format=FORMAT : TranscodeFormat

(선택사항) 출력 파일의 형식을 지정합니다. Pub/Sub 주제의 DataPathOUTPUT의 값으로 제공하면 기본 출력 형식은 JSONL입니다. 다른 모든 DataPaths의 경우 기본 출력 형식은 ORC입니다.

--parallelism=COUNT

(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수보다 작거나 같아야 합니다. 기본값은 1입니다.

--preload-chunk-count=PRELOAD_CHUNK_COUNT

(선택사항) 모든 스레드가 처리 중일 때 미리 로드할 데이터 청크 수를 지정합니다. 기본값은 1입니다.

--replace

(선택사항) 지정된 경우 디코딩 결과를 쓰기 전에 출력 경로를 재귀적으로 삭제합니다.

--transcode-configuration=CONFIG : DataPath

(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.

매개변수 유형

Mainframe Connector 명령어에 사용되는 일반적인 유형입니다.

DataPath

DataPath은 입력 또는 출력을 나타내는 문자열입니다. 각 DataPath 유형에는 다음과 같은 자체 접두사와 인수가 있습니다.

  • DD: - 이 접두사가 있는 데이터 경로는 작업 제어 언어 (JCL) 작업에서 실행될 때 데이터 정의 문 (DD)을 가리킵니다. DD에 encoding=를 추가하여 DD 인코딩을 변경할 수 있습니다. 예를 들면 DD:DDNAME 또는 DD:DDNAME?encoding=UTF-8입니다. 기본 DD 인코딩은 기본 OS 인코딩입니다.

  • DSN: - 이 접두사가 있는 데이터 경로는 메인프레임에서 실행할 때 데이터 소스 이름 (DSN)을 가리킵니다. DSN에 encoding=을 추가하여 DSN 인코딩을 변경할 수 있습니다. 예를 들면 DSN:HQ.FOO.BAR 또는 DSN:HQ.FOO.BAR?encoding=cp037입니다.

  • file: - 이 접두사가 있는 데이터 경로는 Unix 파일을 가리킵니다. Unix 파일에서 다음을 지정할 수 있습니다.

    • : 앞에 #lrecl을 추가하여 논리 레코드 길이 (LRECL)를 설정합니다.
    • : 앞에 &recfm를 추가하여 레코드 형식 (RECFM)을 지정합니다. 기본 RECFM은 F입니다.
    • : 앞에 &encoding를 추가하여 인코딩합니다. 기본 인코딩은 UTF-8입니다.

    예를 들면 file:/path/to/file, file?80:/path/to/file, file?80&recfm=FB:/path/to/file, file?80&recfm=FB&encoding=cp037:/path/to/file입니다.

  • gs:// - 이 접두사가 있는 데이터 경로는 Cloud Storage의 파일을 가리킵니다. 파일에서 다음을 지정할 수 있습니다.

    • 버킷 접두사 뒤에 ?lrecl=lrecl를 추가하여 LRECL을 가져옵니다.
    • 버킷 접두사 뒤에 ?recfm=recfm를 추가하여 RECFM을 지정합니다. 기본 RECFM은 F입니다.
    • 버킷 접두사 뒤에 ?encoding=를 추가하여 인코딩합니다. 기본 인코딩은 UTF-8입니다.

    예를 들면 gs://my_bucket/my/file.txt, gs://my_bucket/my/file.txt?encoding=cp037, gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037, gs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=recfm입니다.

  • pubsub: - 이 접두사가 있는 데이터 경로는 Pub/Sub 리소스를 가리킵니다. 예를 들면 pubsub:projects/projectId/topics/topicId입니다.

Cloud Storage 또는 Unix 파일의 경우 RECFM이 V로 설정되면 Mainframe Connector는 다음과 같이 LLzz 형식으로 파일을 읽고 씁니다.

  • 처음 2바이트는 데이터 크기 + 4바이트를 나타냅니다.
  • 후속 2바이트는 항상 0x0000입니다.
  • 나머지 바이트는 실제 레코드 데이터를 구성합니다.

Cloud Storage 또는 Unix 파일의 경우 RECFM이 VC로 설정되면 Mainframe Connector는 다음과 같이 zzLL 형식으로 파일을 읽고 씁니다.

  • 처음 두 바이트는 항상 0x0000입니다.
  • 다음 두 바이트는 데이터 크기를 나타냅니다.
  • 나머지 바이트는 실제 레코드 데이터를 구성합니다.

DataSize

DataSize는 크기를 금액과 측정 단위(예: 5MiB)의 형태로 나타냅니다. 금액과 크기 사이에 공백을 사용할 수 있습니다. 데이터 크기 파싱은 대소문자를 구분하지 않으므로 측정 단위를 대소문자 모두로 지정할 수 있습니다.

다음 형식으로 값을 지정할 수 있습니다.

  • Java 형식: b/k/m/g/t(각각 바이트, 키비바이트, 메비바이트, 기비바이트, 테비바이트)
  • 국제 형식: KiB/MiB/GiB/TiB(각각 키비바이트, 메비바이트, 기비바이트, 테비바이트)
  • 미터법 형식: b/kb/mb/gb/tb(각각 바이트, 킬로바이트, 메가바이트, 기가바이트, 테라바이트)

TranscodeFormat

TranscodeFormat는 트랜스코딩 프로세스 중에 사용할 형식을 나타냅니다.

유효한 값은 다음과 같습니다.

  • ORC - ORC는 자체 설명이 가능한 유형 인식 열 형식입니다.
  • CSV - CSV는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다. csv-dialect 입력 매개변수를 사용하여 CSV 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는 --input-parameter csv-dialect=DataPath로 정의할 수 있습니다.
  • JSONL - JSONL는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다. json-dialect 입력 매개변수를 사용하여 JSON 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는 --input-parameter json-dialect=DataPath로 정의할 수 있습니다.

TranscodeInputFormat

트랜스코딩 중에 사용할 형식입니다.

유효한 값은 다음과 같습니다.

  • BIGQUERY - BigQuery에서 데이터를 직접 가져옵니다. INPUT는 쿼리 파일의 경로여야 합니다.

    사용 가능한 입력 매개변수는 다음과 같습니다.

    • keep-order - 레코드의 정확한 순서가 중요한 경우 사용합니다. 이렇게 하면 입력 스트림이 제한됩니다.
    • project-id - 작업을 실행할 때 사용할 프로젝트 ID입니다.
    • location - 작업을 실행할 때 사용할 위치입니다.
  • CSV - CSV는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다. csv-dialect 입력 매개변수를 사용하여 CSV 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는 --input-parameter csv-dialect=DataPath로 정의할 수 있습니다.

  • JSONL - JSONL는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다. json-dialect 입력 매개변수를 사용하여 JSON 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는 --input-parameter json-dialect=DataPath로 정의할 수 있습니다.

  • ORC - ORC는 자체 설명이 가능한 유형 인식 열 형식입니다. Cloud Storage에서 ORC 파일을 트랜스코딩하려면 project-id 값을 Cloud Storage가 있는 프로젝트 ID로 설정합니다.