명령어
bq export
BigQuery에서 테이블을 내보냅니다.
개요
bq export [options]
플래그 및 인수
이 명령어를 실행하려면 SQL 쿼리 (플래그 --sql
및 query_dsn
참고)와 사본첩 (플래그 cobDsn
참고)을 제공해야 합니다. 이 명령어는 로컬, 원격, 독립형 모드에서 실행할 수 있습니다. 원격 모드의 경우 --bucket
, --remoteHost
, --remotePort
, --remoteUrl
플래그를 참고하세요.
bq export
명령어는 다음 플래그와 인수를 사용합니다.
--project_id
=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
- (선택사항) 기존 SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--batch
- (선택사항) 쿼리를 일괄 모드로 실행합니다.
--bucket
=BUCKET- (선택사항) Cloud Storage 버킷 내 위치에 명령어의 출력을 작성합니다. 출력 파일은 대상 경로
gs://BUCKET/EXPORT/
에 작성됩니다. 이 인수는 원격 모드에 필요합니다. --cobDsn
=DSN- (선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--dataset_id
=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table
=TABLE- (선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
- (선택사항) 쿼리를 실행하지 않고 유효성을 검사합니다.
--encoding
=ENCODING- (선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 제공하면
ENCODING
환경 변수에 의해 설정된 기본값이 재정의됩니다. --exporter_thread_count
=COUNT- (선택사항) 내보내기 도구 스레드 수를 설정합니다. 기본값은 4입니다.
--help
또는-h
- 이 도움말 텍스트를 표시합니다.
--keepAliveTimeInSeconds
=SECONDS- (선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location
=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--max_read_queue
=NUMBER- (선택사항) Avro 레코드 대기열의 최대 크기를 설정합니다. 기본값은 스레드 수의 두 배입니다.
--max_read_streams
=NUMBER- (선택사항) 최대 읽기 스트림 스레드 수를 설정합니다. 기본값은 4입니다.
--maximum_bytes_billed
=BYTES- (선택사항) 쿼리에 청구되는 바이트 수를 제한합니다.
--order_response
- (선택사항) BigQuery에서 반환된 순서대로 응답을 유지합니다.
--outDD
=OUTPUT- (선택사항) z/OS의 지정된 데이터 세트에 출력 레코드를 작성합니다. 기본값은 DD OUTFILE입니다.
--parser_type
=TYPE- (선택사항) 구성 파서를
legacy
,copybook
또는auto
로 설정합니다. 기본값은auto
입니다. --query_dsn
=DSN- (선택사항) z/OS의 지정된 데이터 세트에서 쿼리를 읽습니다. HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식을 사용하세요. 값을 제공하지 않으면 Mainframe Connector가 DD QUERY에서 읽습니다.
--remoteHost
=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket
플래그를 설정합니다. --remotePort
=PORT- (선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket
플래그를 설정하세요. --remoteUrl
=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket
플래그를 설정하세요. --run_mode
=MODE- (선택사항) 내보내기 구현을 선택합니다. 다음 옵션 중 하나를 사용할 수 있습니다.
directstorage
: 바이너리 파일이 로컬에 저장됩니다 (기본값).gcsoutput
: 바이너리 파일이 Cloud Storage에 저장됩니다.
--sql
=SQL- (선택사항) 실행할 BigQuery SQL 쿼리를 지정합니다.
--stats_table
=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--timeOutMinutes
=MINUTES- (선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 설정합니다. 기본값은 90분입니다.
--transcoding_buffer
=BUFFER- (선택사항) 스레드당 트랜스코딩 버퍼의 크기(MB)를 설정합니다. 기본값은 20입니다.
--use_cache
={true|false}- (선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다.
--use_legacy_sql
- (선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.
bq load
BigQuery 테이블에 데이터를 로드합니다.
개요
bq load [options] tablespec path
플래그 및 인수
bq load
명령어는 다음 플래그와 인수를 사용합니다.
- path
- 소스 파일 URI의 쉼표로 구분된 목록을 지정합니다. 지원되는 형식은
gs://bucket/path
입니다. 예를 들면gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
입니다. - tablespec
- 데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE] 입니다.
--project_id
=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_jagged_rows
- (선택사항) CSV 데이터에서 후행 선택 열이 누락된 것을 허용합니다.
--allow_quoted_newlines
- (선택사항) CSV 데이터 내에서 따옴표가 있는 줄바꿈을 허용합니다.
--append_table
- (선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--autodetect
- (선택사항) CSV 및 JSON 데이터에 자동 스키마 감지를 사용 설정합니다.
--clustering_fields
=FIELDS- (선택사항) 이 플래그를 지정하면 쿼리의 대상 테이블이 쉼표로 구분된 열 목록을 통해 클러스터링됩니다. 수집 시간으로 파티션을 나눈 테이블이나
DATE
열 또는TIMESTAMP
열로 파티션을 나눈 테이블을 만들 때는 이 플래그와 함께 시간으로 파티션 나누기 플래그를 사용해야 합니다. 이 플래그를 지정하면 테이블은 파티션으로 나눠진 후 열을 통해 클러스터링됩니다. --dataset_id
=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--debug_mode
={true|false}- (선택사항) 로깅 수준을 디버그로 설정합니다.
--destination_kms_key
=KEY- (선택사항) 대상 테이블 데이터의 암호화에 사용할 Cloud KMS 키입니다.
--encoding
또는-E
=ENCODING- (선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면
ENCODING
환경 변수에 의해 설정된 기본값이 재정의됩니다. --field_delimiter
또는-F
=FIELD- (선택사항) CSV 데이터에 열 구분 기호를 지정합니다. 탭 구분 기호에는
\t
또는tab
를 사용합니다. --help
또는-h
- 이 도움말 텍스트를 표시합니다.
--ignore_unknown_values
=VALUES- (선택사항) CSV 또는 JSON 데이터에서 인식할 수 없는 추가 값을 무시합니다.
--location
=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--max_bad_records
=RECORDS- (선택사항) 작업이 실패하기 전에 허용되는 잘못된 레코드의 최대 개수를 설정합니다.
--max_bad_records
값과 관계없이 모든 유형에 오류가 최대 5개까지 반환됩니다. 이 플래그는 CSV, JSON, Google Sheets 데이터 로드에만 적용됩니다. 기본값은 0입니다. --max_polling_interval_ms
=MILLISECONDS- (선택사항) BigQuery 작업의 최대 대기 시간입니다.
--null_marker
=MARKER- (선택사항) CSV 데이터에서
NULL
값을 나타내는 커스텀 문자열을 지정합니다. --projection_fields
=FIELDS- (선택사항)
--source_format
을DATASTORE_BACKUP
로 설정하면 이 플래그는 Datastore 내보내기에서 로드할 항목 속성을 나타냅니다. 쉼표로 구분된 목록에 속성 이름을 지정합니다. 속성 이름은 대소문자를 구분하며 최상위 속성을 참조해야 합니다. 이 플래그는 Firestore 내보내기에도 사용할 수 있습니다. --quote
=QUOTE- (선택사항) CSV 데이터의 필드를 묶을 따옴표 문자를 지정합니다. 1바이트 문자를 인수로 지정할 수 있습니다. 기본값은 큰따옴표 (")입니다. 따옴표 문자가 없도록 지정하려면 빈 문자열을 사용합니다.
--replace
- (선택사항) 대상 테이블의 기존 데이터를 로드된 데이터로 대체합니다.
--require_partition_filter
={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며
--time_partitioning_field
플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 false입니다. --schema
=SCHEMA- (선택사항) 대상 테이블의 스키마를 정의합니다. 값을 [FIELD]:[DATA_TYPE] 형식의 쉼표로 구분된 열 정의 목록으로 지정합니다. 예:
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (선택사항) 로드 작업 또는 쿼리 작업에서 테이블에 데이터를 추가할 때 또는 테이블 파티션을 덮어쓸 때 대상 테이블의 스키마를 업데이트하는 방법을 지정합니다. 다음 중 한 가지 값을 사용합니다.
ALLOW_FIELD_ADDITION
: 새 필드를 추가하도록 허용ALLOW_FIELD_RELAXATION
:REQUIRED
필드를NULLABLE
로 완화하도록 허용
--skip_leading_rows
=NUMBER- (선택사항) 소스 파일의 시작 부분에서 건너뛸 행 수를 지정합니다. 기본값은 0입니다.
--source_format
=FORMAT- (선택사항) 소스 데이터의 형식을 지정합니다.
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(Filestore에 이 값 사용),PARQUET
,ORC
값 중 하나를 사용할 수 있습니다. 기본값은ORC
입니다. --stats_table
=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--time_partitioning_expiration
=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field
=FIELD- (선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type
=TYPE- (선택사항) 테이블에 시간 기반 파티션 나누기를 사용 설정하고
DAY
값을 사용하여 파티션 유형을 설정합니다. --use_avro_logical_types
={true|false}- (선택사항)
--source_format
이AVRO
로 설정된 경우 이 플래그를 true로 설정하여INTEGER
와 같은 원시 유형만 사용하지 않고 논리 유형을TIMESTAMP
와 같은 해당 유형으로 변환합니다. 기본값은 false입니다.
bq mk
파티션 및 클러스터링을 설정해야 하는 기본 제공 테이블 또는 외부 테이블과 같은 BigQuery 리소스를 만듭니다. bq mk
명령어를 사용하여 --schema_from_copybook
플래그를 사용하여 COBOL 카피북 파싱에서 직접 BigQuery 테이블을 생성할 수도 있습니다.
개요
bq mk [options]
플래그 및 인수
bq mk
명령어는 다음 플래그와 인수를 사용합니다.
--project_id
=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--tablespec
=TABLE- 데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]입니다.
--clustering_fields
=FIELDS- (선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 쉼표로 구분된 목록을 지정합니다.
--dataset_id
=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--description
=DESCRIPTION- (선택사항) 데이터 세트 또는 테이블에 대한 설명을 입력합니다.
--dry_run
- (선택사항) 테이블의 데이터 정의 언어 (DDL) 문을 출력합니다.
--encoding
=ENCODING- (선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면
ENCODING
환경 변수에 의해 설정된 기본값이 재정의됩니다. --expiration
=EXPIRATION- (선택사항) 테이블의 수명을 지정합니다. 값을 지정하지 않으면 BigQuery에서 데이터 세트의 기본 테이블 수명으로 테이블을 만들거나 테이블이 만료되지 않습니다.
--external_table_definition
또는-e
=TABLE- (선택사항) 외부 테이블을 만들기 위한 이름과 스키마 정의를 지정합니다. 예:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
또는-h
- 이 도움말 텍스트를 표시합니다.
--location
=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--parser_type
=TYPE- (선택사항) 구성 파서를
legacy
,copybook
또는auto
로 설정합니다. 기본값은auto
입니다. --require_partition_filter
={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며
--time_partitioning_field
플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 true입니다. --schema
=SCHEMA- (선택사항) 로컬 JSON 스키마 파일의 경로 또는 FIELD:DATA_TYPE, FIELD:DATA_TYPE 형식 등의 쉼표로 구분된 열 정의 목록을 지정합니다.
--schema_from_copybook
=SCHEMA- (선택사항) 스키마를 보관처에서 생성합니다.
--table
또는-t
=TABLE- (선택사항) 테이블을 만듭니다.
--time_partitioning_expiration
=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field
=FIELD- (선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--view
- (선택사항) 뷰를 만듭니다.
bq query
BigQuery 쿼리를 실행합니다.
개요
bq query [options]
플래그 및 인수
이 명령어는 로컬 모드와 원격 모드에서 실행할 수 있습니다. 원격 모드의 경우 플래그 --remoteHost
, --remotePort
, --remoteUrl
및 환경 변수 BQ_QUERY_REMOTE_EXECUTION
를 참고하세요.
bq query
명령어는 다음 플래그와 인수를 사용합니다.
--project_id
=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results
- (선택사항) 기존 SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--append_table
- (선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--batch
- (선택사항) 쿼리를 일괄 모드로 실행합니다.
--clustering_fields
=FIELDS- (선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 쉼표로 구분된 목록을 지정합니다. 파티션 나누기와 함께 이 값을 지정하면 테이블이 파티션으로 나누어진 후 각 파티션이 제공된 열을 통해 클러스터링됩니다.
--create_if_needed
- (선택사항) 대상 테이블이 없으면 만듭니다.
--dataset_id
=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table
=TABLE- (선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run
- (선택사항) 쿼리를 실행하지 않고 유효성을 검사합니다.
--follow
={true|false}- (선택사항) 개별 쿼리 단계 또는 전체 스크립트를 추적하려면 true로 설정합니다. 기본값은 false입니다.
--help
또는-h
- 이 도움말 텍스트를 표시합니다.
--location
=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--maximum_bytes_billed
=BYTES- (선택사항) 쿼리에 청구되는 바이트 수 제한을 지정합니다.
--parameters
=PARAMETERS- (선택사항) [NAME]:[TYPE]:[VALUE] 형식으로 쉼표로 구분된 쿼리 매개변수를 지정합니다. 이름이 비어 있으면 위치 매개변수가 생성됩니다. [TYPE]을 생략하여 name::value 또는 ::value 형식의
STRING
값을 가정할 수 있습니다.NULL
은 null 값을 생성합니다. --query_dsn
=DSN- (선택사항) 쿼리를 읽을 DSN을 HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식으로 지정합니다.
query_dsn
를 제공하지 않으면 QUERY DD가 사용됩니다. --remoteHost
=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION
환경 변수를 설정합니다. --remotePort
=PORT- (선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION
환경 변수를 설정합니다. --remoteUrl
=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION
환경 변수를 설정합니다. --replace
- (선택사항) 대상 테이블을 쿼리 결과로 덮어씁니다.
--report_row_limit
=LIMIT- (선택사항) 감사 보고서에 인쇄할 최대 행을 지정합니다. 기본값은 30입니다.
--require_partition_filter
={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 기본값은 true입니다.
--schema_update_option
=OPTION- (선택사항) 데이터를 추가할 때 대상 테이블의 스키마를 업데이트합니다. 다음 값을 사용합니다.
ALLOW_FIELD_ADDITION
: 새 필드를 추가할 수 있습니다.ALLOW_FIELD_RELAXATION
:REQUIRED
필드를NULLABLE
로 완화하도록 허용
--split_sql
={true|false}- (선택사항) 입력 SQL 스크립트를 개별 쿼리로 분할하려면 true로 설정합니다. 기본값은 true입니다.
--stats_table
=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--sync
={true|false}- (선택사항) 동기 모드로 명령어를 실행합니다.
--synchronous_mode
={true|false}- (선택사항):
--sync
의 대안입니다. --timeOutMinutes
=MINUTES- (선택사항) BigQuery 작업 응답의 제한 시간을 분 단위로 지정합니다. 기본값은 240분입니다.
--time_partitioning_expiration
=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field
=FIELD- (선택사항) 시간 기반 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type
=TYPE- (선택사항) 테이블에 시간 기반 파티션 나누기를 사용 설정하고
DAY
,HOUR
,MONTH
,YEAR
값 중 하나를 사용하여 파티션 유형을 설정합니다. --use_cache
={true|false}- (선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다. 기본값은 true입니다.
--use_legacy_sql
- (선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.
gsutil cp
메인프레임에서 Cloud Storage 버킷으로 데이터를 트랜스코딩합니다.
개요
gsutil cp [options] gcsUri [dest]
플래그 및 인수
이 명령어는 다음과 같은 다양한 목적으로 사용할 수 있습니다.
- 메인프레임 또는 Linux 환경에서 Cloud Storage로 파일을 복사하고 트랜스코딩합니다.
- 출처:
--inDSN
제공하지 않으면 DD INFILE로 지정됩니다. - 대상:
gcsUri
- Cloud Storage 내에서 파일 복사 및 트랜스코딩
- 소스:
gcsUri
- 대상:
--destPath
- Cloud Storage에서 메인프레임으로 파일을 복사합니다.
- 소스:
gcsUri
- 대상:
--destDSN
- 관련 플래그:
--lrecl
,--blksize
,--recfm
,--noseek
- Cloud Storage에서 Linux 환경으로 파일을 복사합니다.
- 소스:
gcsUri
- 대상:
--destPath
--remote
, --remoteHost
, --remotePort
, --remoteUrl
플래그를 참고하세요.
gsutil cp
명령어는 다음 플래그와 인수를 사용합니다.
- dest
- (선택사항) 로컬 경로 또는 데이터 소스 이름 (DSN)입니다. 예시 형식:
/path/to/file
, DATASET.MEMBER - gcsUri
gs://bucket/path
형식의 Cloud Storage URI입니다. 사용에 따라 소스 위치와 대상 위치를 모두 나타낼 수 있습니다.--project_id
=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--batchSize
=SIZE- (선택사항) 배치당 사용할 블록을 지정합니다. 기본값은 1,000입니다.
--blksize
=SIZE- (선택사항) 메인프레임에 복사할 파일의 블록 크기를 지정합니다.
blksize=0
및recfm
가 U가 아닌 경우 메인프레임 시스템은 파일의 최적 블록 크기를 결정합니다. --cobDsn
=DSN- (선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--connections
=NUMBER- (선택사항) 원격 수신기에 연결할 수 있는 연결 수를 지정합니다. 기본값은 10입니다.
--dataset_id
=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destDSN
=OUTPUT- (선택사항) 대상 DSN을 지정합니다.
--destPath
=OUTPUT- (선택사항) 대상 경로를 지정합니다.
--dry_run
- (선택사항) QSAM 파일의 copybook 파싱 및 디코딩을 테스트합니다.
--encoding
=ENCODING- (선택사항) 문자 필드의 인코딩 및 디코딩에 사용할 문자 집합을 지정합니다. 이 값을 지정하면
ENCODING
환경 변수에 의해 설정된 기본값이 재정의됩니다. --help
또는-h
- 이 도움말 텍스트를 표시합니다.
--inDsn
=DSN- (선택사항) 사용할 infile DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD INFILE에서 읽습니다.
--keepAliveTimeInSeconds
=SECONDS- (선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location
=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 미국입니다.
--lowerCaseColumnNames
- (선택사항) 문서 필드의 열 이름을 소문자로 만듭니다.
--lrecl
=LRECL- (선택사항) 메인프레임에 복사할 파일의 논리 레코드 길이 (lrecl)를 지정합니다.
--maxChunkSize
=SIZE- (선택사항) 일괄 처리당 최대 청크 크기를 지정합니다. 크기를 설명하려면 K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB 또는 TB를 사용해야 합니다. 기본값은 128MiB입니다.
--max_error_pct
=PCT- (선택사항) 행 디코딩 오류의 작업 실패 기준점을 지정합니다. 유효한 값은 [0.0, 1.0] 범위입니다. 기본값은 0.0입니다.
--noseek
- (선택사항) Cloud Storage에서 메인프레임으로의 다운로드 성능을 개선합니다.
--parallel
또는-m
- (선택사항) 동시 작성자 수를 4로 설정합니다.
--parallelism
또는-p
=NUMBER- (선택사항) 동시 작성자 수를 지정합니다. 기본값은 4입니다.
--parser_type
=TYPE- (선택사항) 구성 파서를
legacy
,copybook
또는auto
로 설정합니다. 기본값은auto
입니다. --preload_chunk_count
=NUMBER- (선택사항) 모든 작업자가 사용 중이더라도 디스크에서 미리 로드할 청크 수를 지정합니다. 기본값은 2입니다.
--recfm
=REFCM- (선택사항) 메인프레임에 복사할 파일의 recfm을 지정합니다. F, FB, V, VB, U 중 하나의 값을 사용할 수 있습니다. 기본값은 FB입니다.
--remote
- (선택사항) 원격 디코더를 사용합니다.
--remoteHost
=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote
플래그를 설정합니다. --remotePort
=PORT- (선택사항) 사용할 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote
플래그를 설정하세요. --remoteUrl
=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote
플래그를 설정하세요. --replace
- (선택사항) 업로드하기 전에 대상을 재귀적으로 삭제합니다.
--stats_table
=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--tfDSN
=DSN- (선택사항) DSN, DATASET.MEMBER 또는 PDS(MBR)의 변환을 지정합니다.
--tfGCS
=GCS- (선택사항) Cloud Storage의 변환 파일을 지정합니다.
--timeOutMinutes
=MINUTES- (선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 지정합니다. 기본값은 Cloud Storage의 경우 90분, 메인프레임의 경우 50분입니다.
gsutil rm
Cloud Storage 객체 삭제
개요
gsutil rm [-hR] url...
플래그 및 인수
gsutil rm
명령어는 다음 플래그와 인수를 사용합니다.
- url
- Cloud Storage 위치를
gs://bucket/prefix
형식으로 지정합니다. --help
또는-h
- 이 도움말 메시지를 표시합니다.
-R
또는-r
- 경로 표현식과 일치하는 디렉터리 또는 객체의 콘텐츠를 재귀적으로 삭제합니다.
scp
Cloud Storage에 파일을 복사합니다.
개요
scp [options] [input] [output]
플래그 및 인수
이 명령어를 사용하려면 다음을 충족해야 합니다.
input
,--inDD
또는--inDsn
를 통해 고유한 입력 값 하나를 설정합니다.- 출력 또는
--gcsOutUri
를 통해 고유한 출력 값을 하나 설정합니다.
scp
명령어는 다음 플래그와 인수를 사용합니다.
- input
- (선택사항) 복사할 DD 또는 DSN을 지정합니다. 대신
--inDD
또는--inDsn
를 사용할 수 있습니다. - output
- (선택사항) gs://[BUCKET]/[PREFIX] 형식을 사용하여 출력의 URI를 지정합니다. 대신
--gcsOutUri
를 사용할 수 있습니다. --compress
- (선택사항) gzip으로 출력을 압축합니다.
--count
또는-n
=RECORDS- (선택사항) 복사할 레코드 수를 지정합니다. 기본값은 무제한입니다.
--encoding
=ENCODING- (선택사항) 입력 문자 인코딩을 지정합니다. 기본값은 CP037입니다.
--gcsOutUri
=URI- (선택사항) 파일 사본의 대상 Cloud Storage URI를 지정합니다.
--help
또는-h
- 이 도움말 텍스트를 표시합니다.
--inDD
=INPUT- (선택사항) 복사할 DD 파일을 지정합니다. 기본값은 DD INFILE입니다.
--inDsn
=INPUT- (선택사항) 복사할 DSN을 지정합니다.
--noConvert
- (선택사항) 문자 입력을 ASCII로 변환하지 않습니다. 문자 변환은 기본적으로 사용 설정되어 있습니다.
systemreport
시스템 보고서를 제공합니다.
개요
systemreport [-h] [--available_security_providers] [--supported_ciphers]
플래그 및 인수
systemreport
명령어는 다음 플래그와 인수를 사용합니다.
--available_security_providers
- 지원되는 보안 제공업체를 출력합니다.
--help
또는-h
- 이 도움말 메시지를 표시합니다.
--supported_ciphers
- 지원되는 암호화를 출력합니다.