Mainframe Connector 명령줄 참조

이 문서에서는 메인프레임 커넥터 명령줄 도구의 문법, 명령어, 플래그, 인수를 설명합니다.

명령어

bq export

BigQuery에서 테이블을 내보냅니다.

개요

bq export [options]

플래그 및 인수

이 명령어를 실행하려면 SQL 쿼리 (플래그 --sqlquery_dsn 참고)와 사본첩 (플래그 cobDsn 참고)을 제공해야 합니다. 이 명령어는 로컬, 원격, 독립형 모드에서 실행할 수 있습니다. 원격 모드의 경우 --bucket, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요. bq export 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
(선택사항) 기존 SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--batch
(선택사항) 쿼리를 일괄 모드로 실행합니다.
--bucket=BUCKET
(선택사항) Cloud Storage 버킷 내 위치에 명령어의 출력을 작성합니다. 출력 파일은 대상 경로 gs://BUCKET/EXPORT/에 작성됩니다. 이 인수는 원격 모드에 필요합니다.
--cobDsn=DSN
(선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE
(선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
(선택사항) 쿼리를 실행하지 않고 유효성을 검사합니다.
--encoding=ENCODING
(선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 제공하면 ENCODING 환경 변수에 의해 설정된 기본값이 재정의됩니다.
--exporter_thread_count=COUNT
(선택사항) 내보내기 도구 스레드 수를 설정합니다. 기본값은 4입니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--keepAliveTimeInSeconds=SECONDS
(선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--max_read_queue=NUMBER
(선택사항) Avro 레코드 대기열의 최대 크기를 설정합니다. 기본값은 스레드 수의 두 배입니다.
--max_read_streams=NUMBER
(선택사항) 최대 읽기 스트림 스레드 수를 설정합니다. 기본값은 4입니다.
--maximum_bytes_billed=BYTES
(선택사항) 쿼리에 청구되는 바이트 수를 제한합니다.
--order_response
(선택사항) BigQuery에서 반환된 순서대로 응답을 유지합니다.
--outDD=OUTPUT
(선택사항) z/OS의 지정된 데이터 세트에 출력 레코드를 작성합니다. 기본값은 DD OUTFILE입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--query_dsn=DSN
(선택사항) z/OS의 지정된 데이터 세트에서 쿼리를 읽습니다. HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식을 사용하세요. 값을 제공하지 않으면 Mainframe Connector가 DD QUERY에서 읽습니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정합니다.
--remotePort=PORT
(선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정하세요.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --bucket 플래그를 설정하세요.
--run_mode=MODE
(선택사항) 내보내기 구현을 선택합니다. 다음 옵션 중 하나를 사용할 수 있습니다.
  • directstorage: 바이너리 파일이 로컬에 저장됩니다 (기본값).
  • gcsoutput: 바이너리 파일이 Cloud Storage에 저장됩니다.
--sql=SQL
(선택사항) 실행할 BigQuery SQL 쿼리를 지정합니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--timeOutMinutes=MINUTES
(선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 설정합니다. 기본값은 90분입니다.
--transcoding_buffer=BUFFER
(선택사항) 스레드당 트랜스코딩 버퍼의 크기(MB)를 설정합니다. 기본값은 20입니다.
--use_cache={true|false}
(선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다.
--use_legacy_sql
(선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.

bq load

BigQuery 테이블에 데이터를 로드합니다.

개요

bq load [options] tablespec path

플래그 및 인수

bq load 명령어는 다음 플래그와 인수를 사용합니다.

path
소스 파일 URI의 쉼표로 구분된 목록을 지정합니다. 지원되는 형식은 gs://bucket/path입니다. 예를 들면 gs://my-bucket/data.orc,gs://my-bucket/more-data.orc입니다.
tablespec
데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]
입니다.
--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_jagged_rows
(선택사항) CSV 데이터에서 후행 선택 열이 누락된 것을 허용합니다.
--allow_quoted_newlines
(선택사항) CSV 데이터 내에서 따옴표가 있는 줄바꿈을 허용합니다.
--append_table
(선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--autodetect
(선택사항) CSV 및 JSON 데이터에 자동 스키마 감지를 사용 설정합니다.
--clustering_fields=FIELDS
(선택사항) 이 플래그를 지정하면 쿼리의 대상 테이블이 쉼표로 구분된 열 목록을 통해 클러스터링됩니다. 수집 시간으로 파티션을 나눈 테이블이나 DATE 열 또는 TIMESTAMP 열로 파티션을 나눈 테이블을 만들 때는 이 플래그와 함께 시간으로 파티션 나누기 플래그를 사용해야 합니다. 이 플래그를 지정하면 테이블은 파티션으로 나눠진 후 열을 통해 클러스터링됩니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--debug_mode={true|false}
(선택사항) 로깅 수준을 디버그로 설정합니다.
--destination_kms_key=KEY
(선택사항) 대상 테이블 데이터의 암호화에 사용할 Cloud KMS 키입니다.
--encoding 또는 -E=ENCODING
(선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면 ENCODING 환경 변수에 의해 설정된 기본값이 재정의됩니다.
--field_delimiter 또는 -F=FIELD
(선택사항) CSV 데이터에 열 구분 기호를 지정합니다. 탭 구분 기호에는 \t 또는 tab를 사용합니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--ignore_unknown_values=VALUES
(선택사항) CSV 또는 JSON 데이터에서 인식할 수 없는 추가 값을 무시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--max_bad_records=RECORDS
(선택사항) 작업이 실패하기 전에 허용되는 잘못된 레코드의 최대 개수를 설정합니다. --max_bad_records 값과 관계없이 모든 유형에 오류가 최대 5개까지 반환됩니다. 이 플래그는 CSV, JSON, Google Sheets 데이터 로드에만 적용됩니다. 기본값은 0입니다.
--max_polling_interval_ms=MILLISECONDS
(선택사항) BigQuery 작업의 최대 대기 시간입니다.
--null_marker=MARKER
(선택사항) CSV 데이터에서 NULL 값을 나타내는 커스텀 문자열을 지정합니다.
--projection_fields=FIELDS
(선택사항) --source_formatDATASTORE_BACKUP로 설정하면 이 플래그는 Datastore 내보내기에서 로드할 항목 속성을 나타냅니다. 쉼표로 구분된 목록에 속성 이름을 지정합니다. 속성 이름은 대소문자를 구분하며 최상위 속성을 참조해야 합니다. 이 플래그는 Firestore 내보내기에도 사용할 수 있습니다.
--quote=QUOTE
(선택사항) CSV 데이터의 필드를 묶을 따옴표 문자를 지정합니다. 1바이트 문자를 인수로 지정할 수 있습니다. 기본값은 큰따옴표 (")입니다. 따옴표 문자가 없도록 지정하려면 빈 문자열을 사용합니다.
--replace
(선택사항) 대상 테이블의 기존 데이터를 로드된 데이터로 대체합니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며 --time_partitioning_field 플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 false입니다.
--schema=SCHEMA
(선택사항) 대상 테이블의 스키마를 정의합니다. 값을 [FIELD]:[DATA_TYPE] 형식의 쉼표로 구분된 열 정의 목록으로 지정합니다. 예: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(선택사항) 로드 작업 또는 쿼리 작업에서 테이블에 데이터를 추가할 때 또는 테이블 파티션을 덮어쓸 때 대상 테이블의 스키마를 업데이트하는 방법을 지정합니다. 다음 중 한 가지 값을 사용합니다.
  • ALLOW_FIELD_ADDITION: 새 필드를 추가하도록 허용
  • ALLOW_FIELD_RELAXATION: REQUIRED 필드를 NULLABLE로 완화하도록 허용
여러 스키마 업데이트 옵션을 지정하려면 이 플래그를 반복합니다.
--skip_leading_rows=NUMBER
(선택사항) 소스 파일의 시작 부분에서 건너뛸 행 수를 지정합니다. 기본값은 0입니다.
--source_format=FORMAT
(선택사항) 소스 데이터의 형식을 지정합니다. CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (Filestore에 이 값 사용), PARQUET, ORC 값 중 하나를 사용할 수 있습니다. 기본값은 ORC입니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE
(선택사항) 테이블에 시간 기반 파티션 나누기를 사용 설정하고 DAY 값을 사용하여 파티션 유형을 설정합니다.
--use_avro_logical_types={true|false}
(선택사항) --source_formatAVRO로 설정된 경우 이 플래그를 true로 설정하여 INTEGER와 같은 원시 유형만 사용하지 않고 논리 유형을 TIMESTAMP와 같은 해당 유형으로 변환합니다. 기본값은 false입니다.

bq mk

파티션 및 클러스터링을 설정해야 하는 기본 제공 테이블 또는 외부 테이블과 같은 BigQuery 리소스를 만듭니다. bq mk 명령어를 사용하여 --schema_from_copybook 플래그를 사용하여 COBOL 카피북 파싱에서 직접 BigQuery 테이블을 생성할 수도 있습니다.

개요

bq mk [options]

플래그 및 인수

bq mk 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--tablespec=TABLE
데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]입니다.
--clustering_fields=FIELDS
(선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 쉼표로 구분된 목록을 지정합니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--description=DESCRIPTION
(선택사항) 데이터 세트 또는 테이블에 대한 설명을 입력합니다.
--dry_run
(선택사항) 테이블의 데이터 정의 언어 (DDL) 문을 출력합니다.
--encoding=ENCODING
(선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면 ENCODING 환경 변수에 의해 설정된 기본값이 재정의됩니다.
--expiration=EXPIRATION
(선택사항) 테이블의 수명을 지정합니다. 값을 지정하지 않으면 BigQuery에서 데이터 세트의 기본 테이블 수명으로 테이블을 만들거나 테이블이 만료되지 않습니다.
--external_table_definition 또는 -e=TABLE
(선택사항) 외부 테이블을 만들기 위한 이름과 스키마 정의를 지정합니다. 예: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며 --time_partitioning_field 플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 true입니다.
--schema=SCHEMA
(선택사항) 로컬 JSON 스키마 파일의 경로 또는 FIELD:DATA_TYPE, FIELD:DATA_TYPE 형식 등의 쉼표로 구분된 열 정의 목록을 지정합니다.
--schema_from_copybook=SCHEMA
(선택사항) 스키마를 보관처에서 생성합니다.
--table 또는 -t=TABLE
(선택사항) 테이블을 만듭니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--view
(선택사항) 뷰를 만듭니다.

bq query

BigQuery 쿼리를 실행합니다.

개요

bq query [options]

플래그 및 인수

이 명령어는 로컬 모드와 원격 모드에서 실행할 수 있습니다. 원격 모드의 경우 플래그 --remoteHost, --remotePort, --remoteUrl 및 환경 변수 BQ_QUERY_REMOTE_EXECUTION를 참고하세요. bq query 명령어는 다음 플래그와 인수를 사용합니다.

--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
(선택사항) 기존 SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--append_table
(선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--batch
(선택사항) 쿼리를 일괄 모드로 실행합니다.
--clustering_fields=FIELDS
(선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 쉼표로 구분된 목록을 지정합니다. 파티션 나누기와 함께 이 값을 지정하면 테이블이 파티션으로 나누어진 후 각 파티션이 제공된 열을 통해 클러스터링됩니다.
--create_if_needed
(선택사항) 대상 테이블이 없으면 만듭니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE
(선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
(선택사항) 쿼리를 실행하지 않고 유효성을 검사합니다.
--follow={true|false}
(선택사항) 개별 쿼리 단계 또는 전체 스크립트를 추적하려면 true로 설정합니다. 기본값은 false입니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--maximum_bytes_billed=BYTES
(선택사항) 쿼리에 청구되는 바이트 수 제한을 지정합니다.
--parameters=PARAMETERS
(선택사항) [NAME]:[TYPE]:[VALUE] 형식으로 쉼표로 구분된 쿼리 매개변수를 지정합니다. 이름이 비어 있으면 위치 매개변수가 생성됩니다. [TYPE]을 생략하여 name::value 또는 ::value 형식의 STRING 값을 가정할 수 있습니다. NULL은 null 값을 생성합니다.
--query_dsn=DSN
(선택사항) 쿼리를 읽을 DSN을 HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식으로 지정합니다. query_dsn를 제공하지 않으면 QUERY DD가 사용됩니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--remotePort=PORT
(선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 쿼리를 실행하려면 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 설정합니다.
--replace
(선택사항) 대상 테이블을 쿼리 결과로 덮어씁니다.
--report_row_limit=LIMIT
(선택사항) 감사 보고서에 인쇄할 최대 행을 지정합니다. 기본값은 30입니다.
--require_partition_filter={true|false}
(선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 기본값은 true입니다.
--schema_update_option=OPTION
(선택사항) 데이터를 추가할 때 대상 테이블의 스키마를 업데이트합니다. 다음 값을 사용합니다.
  • ALLOW_FIELD_ADDITION: 새 필드를 추가할 수 있습니다.
  • ALLOW_FIELD_RELAXATION: REQUIRED 필드를 NULLABLE로 완화하도록 허용
--split_sql={true|false}
(선택사항) 입력 SQL 스크립트를 개별 쿼리로 분할하려면 true로 설정합니다. 기본값은 true입니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--sync={true|false}
(선택사항) 동기 모드로 명령어를 실행합니다.
--synchronous_mode={true|false}
(선택사항): --sync의 대안입니다.
--timeOutMinutes=MINUTES
(선택사항) BigQuery 작업 응답의 제한 시간을 분 단위로 지정합니다. 기본값은 240분입니다.
--time_partitioning_expiration=SECONDS
(선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD
(선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE
(선택사항) 테이블에 시간 기반 파티션 나누기를 사용 설정하고 DAY, HOUR, MONTH, YEAR 값 중 하나를 사용하여 파티션 유형을 설정합니다.
--use_cache={true|false}
(선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다. 기본값은 true입니다.
--use_legacy_sql
(선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.

gsutil cp

메인프레임에서 Cloud Storage 버킷으로 데이터를 트랜스코딩합니다.

개요

gsutil cp [options] gcsUri [dest]

플래그 및 인수

이 명령어는 다음과 같은 다양한 목적으로 사용할 수 있습니다.

  • 메인프레임 또는 Linux 환경에서 Cloud Storage로 파일을 복사하고 트랜스코딩합니다.
    • 출처: --inDSN 제공하지 않으면 DD INFILE로 지정됩니다.
    • 대상: gcsUri
  • Cloud Storage 내에서 파일 복사 및 트랜스코딩
    • 소스: gcsUri
    • 대상: --destPath
  • Cloud Storage에서 메인프레임으로 파일을 복사합니다.
    • 소스: gcsUri
    • 대상: --destDSN
    • 관련 플래그: --lrecl, --blksize, --recfm, --noseek
  • Cloud Storage에서 Linux 환경으로 파일을 복사합니다.
    • 소스: gcsUri
    • 대상: --destPath
이 명령어는 로컬, 원격, 독립형 모드에서 실행할 수 있습니다. 원격 모드의 경우 --remote, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요. gsutil cp 명령어는 다음 플래그와 인수를 사용합니다.

dest
(선택사항) 로컬 경로 또는 데이터 소스 이름 (DSN)입니다. 예시 형식: /path/to/file, DATASET.MEMBER
gcsUri
gs://bucket/path 형식의 Cloud Storage URI입니다. 사용에 따라 소스 위치와 대상 위치를 모두 나타낼 수 있습니다.
--project_id=ID
이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--batchSize=SIZE
(선택사항) 배치당 사용할 블록을 지정합니다. 기본값은 1,000입니다.
--blksize=SIZE
(선택사항) 메인프레임에 복사할 파일의 블록 크기를 지정합니다. blksize=0recfm가 U가 아닌 경우 메인프레임 시스템은 파일의 최적 블록 크기를 결정합니다.
--cobDsn=DSN
(선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--connections=NUMBER
(선택사항) 원격 수신기에 연결할 수 있는 연결 수를 지정합니다. 기본값은 10입니다.
--dataset_id=ID
(선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destDSN=OUTPUT
(선택사항) 대상 DSN을 지정합니다.
--destPath=OUTPUT
(선택사항) 대상 경로를 지정합니다.
--dry_run
(선택사항) QSAM 파일의 copybook 파싱 및 디코딩을 테스트합니다.
--encoding=ENCODING
(선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면 ENCODING 환경 변수에 의해 설정된 기본값이 재정의됩니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--inDsn=DSN
(선택사항) 사용할 infile DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD INFILE에서 읽습니다.
--keepAliveTimeInSeconds=SECONDS
(선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION
(선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--lowerCaseColumnNames
(선택사항) 문서 필드의 열 이름을 소문자로 만듭니다.
--lrecl=LRECL
(선택사항) 메인프레임에 복사할 파일의 논리 레코드 길이 (lrecl)를 지정합니다.
--maxChunkSize=SIZE
(선택사항) 일괄 처리당 최대 청크 크기를 지정합니다. 크기를 설명하려면 K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB 또는 TB를 사용해야 합니다. 기본값은 128MiB입니다.
--max_error_pct=PCT
(선택사항) 행 디코딩 오류의 작업 실패 기준점을 지정합니다. 유효한 값은 [0.0, 1.0] 범위입니다. 기본값은 0.0입니다.
--noseek
(선택사항) Cloud Storage에서 메인프레임으로의 다운로드 성능을 개선합니다.
--parallel 또는 -m
(선택사항) 동시 작성자 수를 4로 설정합니다.
--parallelism 또는 -p=NUMBER
(선택사항) 동시 작성자 수를 지정합니다. 기본값은 4입니다.
--parser_type=TYPE
(선택사항) 구성 파서를 legacy, copybook 또는 auto로 설정합니다. 기본값은 auto입니다.
--preload_chunk_count=NUMBER
(선택사항) 모든 작업자가 사용 중이더라도 디스크에서 미리 로드할 청크 수를 지정합니다. 기본값은 2입니다.
--recfm=REFCM
(선택사항) 메인프레임에 복사할 파일의 recfm을 지정합니다. F, FB, V, VB, U 중 하나의 값을 사용할 수 있습니다. 기본값은 FB입니다.
--remote
(선택사항) 원격 디코더를 사용합니다.
--remoteHost=HOST
(선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정합니다.
--remotePort=PORT
(선택사항) 사용할 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정하세요.
--remoteUrl=URL
(선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면 --remote 플래그를 설정하세요.
--replace
(선택사항) 업로드하기 전에 대상을 재귀적으로 삭제합니다.
--stats_table=TABLE
(선택사항) 통계를 삽입할 테이블을 지정합니다.
--tfDSN=DSN
(선택사항) DSN, DATASET.MEMBER 또는 PDS(MBR)의 변환을 지정합니다.
--tfGCS=GCS
(선택사항) Cloud Storage의 변환 파일을 지정합니다.
--timeOutMinutes=MINUTES
(선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 지정합니다. 기본값은 Cloud Storage의 경우 90분, 메인프레임의 경우 50분입니다.

gsutil rm

Cloud Storage 객체 삭제

개요

gsutil rm [-hR] url...

플래그 및 인수

gsutil rm 명령어는 다음 플래그와 인수를 사용합니다.

url
Cloud Storage 위치를 gs://bucket/prefix 형식으로 지정합니다.
--help 또는 -h
이 도움말 메시지를 표시합니다.
-R 또는 -r
경로 표현식과 일치하는 디렉터리 또는 객체의 콘텐츠를 재귀적으로 삭제합니다.

scp

Cloud Storage에 파일을 복사합니다.

개요

scp [options] [input] [output]

플래그 및 인수

이 명령어를 사용하려면 다음을 충족해야 합니다.

  • input, --inDD 또는 --inDsn를 통해 고유한 입력 값 하나를 설정합니다.
  • 출력 또는 --gcsOutUri를 통해 고유한 출력 값을 하나 설정합니다.

scp 명령어는 다음 플래그와 인수를 사용합니다.

input
(선택사항) 복사할 DD 또는 DSN을 지정합니다. 대신 --inDD 또는 --inDsn를 사용할 수 있습니다.
output
(선택사항) gs://[BUCKET]/[PREFIX] 형식을 사용하여 출력의 URI를 지정합니다. 대신 --gcsOutUri를 사용할 수 있습니다.
--compress
(선택사항) gzip으로 출력을 압축합니다.
--count 또는 -n=RECORDS
(선택사항) 복사할 레코드 수를 지정합니다. 기본값은 무제한입니다.
--encoding=ENCODING
(선택사항) 입력 문자 인코딩을 지정합니다. 기본값은 CP037입니다.
--gcsOutUri=URI
(선택사항) 파일 사본의 대상 Cloud Storage URI를 지정합니다.
--help 또는 -h
이 도움말 텍스트를 표시합니다.
--inDD=INPUT
(선택사항) 복사할 DD 파일을 지정합니다. 기본값은 DD INFILE입니다.
--inDsn=INPUT
(선택사항) 복사할 DSN을 지정합니다.
--noConvert
(선택사항) 문자 입력을 ASCII로 변환하지 않습니다. 문자 변환은 기본적으로 사용 설정되어 있습니다.

systemreport

시스템 보고서를 제공합니다.

개요

systemreport [-h] [--available_security_providers] [--supported_ciphers]

플래그 및 인수

systemreport 명령어는 다음 플래그와 인수를 사용합니다.

--available_security_providers
지원되는 보안 제공업체를 출력합니다.
--help 또는 -h
이 도움말 메시지를 표시합니다.
--supported_ciphers
지원되는 암호화를 출력합니다.