Comandos
bq export
Exporte uma tabela do BigQuery.
Sinopse
bq export [options]
Sinalizações e argumentos
Para executar esse comando, você precisa fornecer uma consulta SQL (consulte as flags --sql
e query_dsn
) e um livro de cópias (consulte a flag cobDsn
). É possível executar esse comando no modo local, remoto e independente. Para o modo remoto, consulte as flags --bucket
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando bq export
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
- (Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--batch
- (Opcional) Executar a consulta no modo em lote.
--bucket
=BUCKET- (Opcional) Grave a saída do comando em um local dentro de um bucket do Cloud Storage. Os arquivos de saída são gravados no caminho de destino
gs://BUCKET/EXPORT/
. Esse argumento é obrigatório para o modo remoto. --cobDsn
=DSN- (Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem executá-la.
--encoding
=ENCODING- (Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando fornecido, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --exporter_thread_count
=COUNT- (Opcional) Defina o número de linhas de execução do exportador. O valor padrão é 4.
--help
ou-h
- Mostrar este texto auxiliar.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location
=LOCATION- (opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_read_queue
=NUMBER- (Opcional) Defina o tamanho máximo da fila de registros Avro. O valor padrão é o dobro do número de linhas de execução.
--max_read_streams
=NUMBER- (Opcional) Defina o número máximo de linhas de execução de streams de leitura. O valor padrão é 4.
--maximum_bytes_billed
=BYTES- (Opcional) Limite os bytes faturados pela consulta.
--order_response
- (Opcional) Mantenha a resposta ordenada conforme retornada pelo BigQuery.
--outDD
=OUTPUT- (Opcional) Grave os registros de saída no conjunto de dados especificado no z/OS. O valor padrão é DD OUTFILE.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --query_dsn
=DSN- (Opcional) Leia uma consulta do conjunto de dados especificado no z/OS. Use o formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se você não fornecer um valor, o Mainframe Connector vai ler de DD QUERY.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --run_mode
=MODE- (Opcional) Selecione a implementação de exportação. Você pode usar uma das seguintes opções:
directstorage
: o arquivo binário é salvo localmente (padrão)gcsoutput
: o arquivo binário é salvo no Cloud Storage
--sql
=SQL- (Opcional) Especifique a consulta SQL do BigQuery a ser executada.
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--timeOutMinutes
=MINUTES- (Opcional) Defina o tempo limite em minutos para a chamada grpc remota. O valor padrão é 90 minutos.
--transcoding_buffer
=BUFFER- (Opcional) Define o tamanho do buffer de transcodificação por linha de execução, em MB. O valor padrão é 20.
--use_cache
={true|false}- (Opcional) Para armazenar os resultados da consulta em cache, defina como "true".
--use_legacy_sql
- (Opcional) Use o SQL legado em vez do SQL padrão.
bq load
Carregar dados em uma tabela do BigQuery.
Sinopse
bq load [options] tablespec path
Sinalizações e argumentos
O comando bq load
usa as seguintes sinalizações e argumentos:
- path
- Especifica uma lista separada por vírgulas de URIs de arquivos de origem. O formato compatível é
gs://bucket/path
. Exemplo:gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
. - tablespec
- Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE]
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_jagged_rows
- (Opcional) Permite a falta de colunas opcionais à direita nos dados CSV.
--allow_quoted_newlines
- (Opcional) Permitir novas linhas entre aspas nos dados CSV.
--append_table
- (Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--autodetect
- (Opcional) Ative a detecção automática de esquema para dados CSV e JSON.
--clustering_fields
=FIELDS- (Opcional) Se especificado, uma lista de colunas separada por vírgulas é usada para agrupar a tabela de destino em uma consulta. Essa flag precisa ser usada com as flags de particionamento de tempo para criar uma tabela particionada por tempo de processamento ou uma tabela particionada em uma coluna
DATE
ouTIMESTAMP
. Quando a sinalização é especificada, a tabela é particionada e, em seguida, armazenada em cluster usando as colunas fornecidas. --dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--debug_mode
={true|false}- (Opcional) Defina o nível de geração de registros como "depuração".
--destination_kms_key
=KEY- (Opcional) A chave do Cloud KMS para criptografia dos dados da tabela de destino.
--encoding
ou-E
=ENCODING- (Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --field_delimiter
ou-F
=FIELD- (Opcional) Especifique o delimitador de coluna nos dados CSV. Use
\t
outab
para delimitadores de tabulação. --help
ou-h
- Mostrar este texto auxiliar.
--ignore_unknown_values
=VALUES- (Opcional) Ignorar valores não reconhecidos extras nos dados CSV ou JSON.
--location
=LOCATION- (opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_bad_records
=RECORDS- (opcional) Defina o número máximo de registros inválidos permitidos antes de uma falha no job. No máximo, cinco erros de qualquer tipo são retornados, seja qual for o valor de
--max_bad_records
. Essa flag se aplica apenas ao carregamento de dados CSV, JSON e Google Sheets. O valor padrão é 0. --max_polling_interval_ms
=MILLISECONDS- (Opcional) O tempo máximo de espera para um job do BigQuery.
--null_marker
=MARKER- (Opcional) Especifique uma string personalizada que represente um valor
NULL
nos dados CSV. --projection_fields
=FIELDS- (opcional) Se você definir
--source_format
comoDATASTORE_BACKUP
, essa flag vai indicar as propriedades da entidade que serão carregadas de uma exportação do Datastore. Especifique os nomes das propriedades em uma lista separada por vírgulas. Nomes de propriedades diferenciam maiúsculas e minúsculas e precisam se referir às propriedades de nível superior. Também é possível usar essa flag com exportações do Firestore. --quote
=QUOTE- (Opcional) Especifique um caractere de aspas para cercar campos nos dados CSV. É possível especificar qualquer caractere de um byte como o argumento. O valor padrão é uma aspa dupla ("). Para especificar que não há caracteres de aspas, use uma string vazia.
--replace
- (Opcional) Substitua os dados atuais na tabela de destino pelos dados carregados.
--require_partition_filter
={true|false}- (opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como verdadeira. O valor padrão é falso. --schema
=SCHEMA- (Opcional) Defina o esquema da tabela de destino. Especifique o valor como uma lista separada por vírgulas de definições de coluna no formato [FIELD]:[DATA_TYPE]. Exemplo:
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (Opcional) Ao anexar dados a uma tabela (em um job de carregamento ou de consulta) ou ao substituir uma partição de tabela, especifique como atualizar o esquema da tabela de destino. Use um dos seguintes valores:
ALLOW_FIELD_ADDITION
: permite que novos campos sejam adicionados.ALLOW_FIELD_RELAXATION
: permite o relaxamento de camposREQUIRED
paraNULLABLE
.
--skip_leading_rows
=NUMBER- (Opcional) Especifique o número de linhas a serem ignoradas no início do arquivo de origem. O valor padrão é 0.
--source_format
=FORMAT- (Opcional) Especifique o formato dos dados de origem. É possível usar um destes valores:
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(use esse valor para o Filestore),PARQUET
,ORC
. O valor padrão éORC
. --stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando o seguinte valor:
DAY
. --use_avro_logical_types
={true|false}- (Opcional) Se
--source_format
estiver definido comoAVRO
, defina essa flag como true para converter tipos lógicos nos tipos correspondentes (comoTIMESTAMP
), em vez de usar apenas os tipos brutos (comoINTEGER
). O valor padrão é false.
bq mk
Crie recursos do BigQuery, como tabelas integradas ou externas que precisam de particionamento e agrupamento. Também é possível usar o comando bq mk
para gerar uma tabela do BigQuery diretamente da análise de cópias de COBOL usando a flag --schema_from_copybook
.
Sinopse
bq mk [options]
Sinalizações e argumentos
O comando bq mk
usa as seguintes sinalizações e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--tablespec
=TABLE- Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE].
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o agrupamento de tabelas.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--description
=DESCRIPTION- (Opcional) Forneça uma descrição para o conjunto de dados ou a tabela.
--dry_run
- (Opcional) Imprima a instrução da linguagem de definição de dados (DDL) da tabela.
--encoding
=ENCODING- (Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --expiration
=EXPIRATION- (Opcional) Especifique a vida útil da tabela. Se você não especificar um valor, o BigQuery vai criar a tabela com a vida útil padrão do conjunto de dados ou a tabela não vai expirar.
--external_table_definition
ou-e
=TABLE- (Opcional) Especifique um nome e uma definição de esquema para criar uma tabela externa. Exemplo:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
ou-h
- Mostrar este texto auxiliar.
--location
=LOCATION- (opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --require_partition_filter
={true|false}- (opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como verdadeira. O valor padrão é "true". --schema
=SCHEMA- (Opcional) Especifique o caminho para um arquivo de esquema JSON local ou uma lista separada por vírgulas de definições de coluna no formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e assim por diante.
--schema_from_copybook
=SCHEMA- (Opcional) Gerar o esquema de um livro de cópias.
--table
ou-t
=TABLE- (Opcional) Crie uma tabela.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--view
- (Opcional) Crie uma visualização.
bq query
Execute uma consulta do BigQuery.
Sinopse
bq query [options]
Sinalizações e argumentos
É possível executar esse comando nos modos local e remoto. Para o modo remoto, consulte as flags --remoteHost
, --remotePort
e --remoteUrl
e a variável de ambiente BQ_QUERY_REMOTE_EXECUTION
.
O comando bq query
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
- (Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--append_table
- (Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--batch
- (Opcional) Executar a consulta no modo em lote.
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o clustering de tabelas. Se você especificar esse valor com particionamento, a tabela será particionada e, em seguida, cada partição será agrupada usando as colunas fornecidas.
--create_if_needed
- (Opcional) Crie a tabela de destino se ela não existir.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem executá-la.
--follow
={true|false}- (Opcional) Para acompanhar etapas de consulta individuais ou o script como um todo, defina como "true". O valor padrão é falso.
--help
ou-h
- Mostrar este texto auxiliar.
--location
=LOCATION- (opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--maximum_bytes_billed
=BYTES- (Opcional) Especifique o limite de bytes faturados pela consulta.
--parameters
=PARAMETERS- (Opcional) Especifique os parâmetros de consulta separados por vírgulas no formato [NAME]:[TYPE]:[VALUE]. Um nome vazio gera um parâmetro de posição. É possível omitir [TYPE] para assumir um valor
STRING
no formato name::value ou ::value.NULL
produz um valor nulo. --query_dsn
=DSN- (Opcional) Especifique o DSN para ler a consulta no formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se
query_dsn
não for fornecido, QUERY DD será usado. --remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --replace
- (Opcional) Substitua a tabela de destino pelos resultados da consulta.
--report_row_limit
=LIMIT- (Opcional) Especifique o número máximo de linhas a serem impressas no relatório de auditoria. O valor padrão é 30.
--require_partition_filter
={true|false}- (opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". O valor padrão é "true".
--schema_update_option
=OPTION- (Opcional) Atualize o esquema da tabela de destino ao anexar dados. Use os valores a seguir:
ALLOW_FIELD_ADDITION
: permite que novos campos sejam adicionados.ALLOW_FIELD_RELAXATION
: permite o relaxamento de camposREQUIRED
paraNULLABLE
.
--split_sql
={true|false}- (Opcional) Para dividir o script SQL de entrada em consultas individuais, defina como "true". O valor padrão é "true".
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--sync
={true|false}- (Opcional) Execute o comando no modo síncrono.
--synchronous_mode
={true|false}- (opcional) Uma alternativa para
--sync
. --timeOutMinutes
=MINUTES- (Opcional) Especifique o tempo limite em minutos para uma resposta de job do BigQuery. O valor padrão é 240 minutos.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando um dos seguintes valores:
DAY
,HOUR
,MONTH
,YEAR
. --use_cache
={true|false}- (Opcional) Para armazenar os resultados da consulta em cache, defina como "true". O valor padrão é "true".
--use_legacy_sql
- (Opcional) Use o SQL legado em vez do SQL padrão.
gsutil cp
Transcodifique dados do mainframe para um bucket do Cloud Storage.
Sinopse
gsutil cp [options] gcsUri [dest]
Sinalizações e argumentos
É possível usar esse comando para os seguintes propósitos:
- Copie e transcodifique um arquivo de um mainframe ou ambiente Linux para o Cloud Storage.
- Origem:
--inDSN
. Se não for fornecido, será especificado por DD INFILE. - Destino:
gcsUri
- Copiar e transcodificar um arquivo no Cloud Storage
- Origem:
gcsUri
- Destino:
--destPath
- Copie um arquivo do Cloud Storage para um mainframe.
- Origem:
gcsUri
- Destino:
--destDSN
- Flags relevantes:
--lrecl
,--blksize
,--recfm
,--noseek
. - Copie um arquivo do Cloud Storage para um ambiente Linux.
- Origem:
gcsUri
- Destino:
--destPath
--remote
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando gsutil cp
usa as seguintes flags e argumentos:
- dest
- (opcional) O caminho local ou o nome da fonte de dados (DSN, na sigla em inglês). Exemplos de formatos:
/path/to/file
, DATASET.MEMBER - gcsUri
- O URI do Cloud Storage no formato
gs://bucket/path
. Pode representar a origem e o destino, dependendo do uso. --project_id
=ID- Especifique o projeto a ser usado para executar esse comando.
--batchSize
=SIZE- (opcional) Especifica os blocos a serem usados por lote. O valor padrão é 1.000.
--blksize
=SIZE- (Opcional) Especifique o tamanho do bloco do arquivo a ser copiado para o Mainframe. Se
blksize=0
erecfm
não forem U, o sistema mainframe vai determinar o tamanho de bloco ideal para o arquivo. --cobDsn
=DSN- (Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--connections
=NUMBER- (Opcional) Especifique o número de conexões que podem ser feitas para o receptor remoto. O valor padrão é 10.
--dataset_id
=ID- (opcional) Especifica o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destDSN
=OUTPUT- (Opcional) Especifique o DSN de destino.
--destPath
=OUTPUT- (Opcional) Especifique o caminho de destino.
--dry_run
- (Opcional) Teste a análise e a decodificação de copybook do arquivo QSAM.
--encoding
=ENCODING- (Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente
ENCODING
. --help
ou-h
- Mostrar este texto auxiliar.
--inDsn
=DSN- (Opcional) Especifique o DSN do arquivo que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD INFILE.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location
=LOCATION- (opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--lowerCaseColumnNames
- (Opcional) Crie nomes de colunas em letras minúsculas para campos de livro de cópias.
--lrecl
=LRECL- (Opcional) Especifique o comprimento do registro lógico (lrecl) do arquivo que você quer copiar para o Mainframe.
--maxChunkSize
=SIZE- (Opcional) Especifique o tamanho máximo de bloco por lote. Use K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB para descrever o tamanho. O valor padrão é 128 MiB.
--max_error_pct
=PCT- (Opcional) Especifique o limite de falha do job para erros de decodificação de linha. Os valores válidos estão no intervalo [0, 1]. O valor padrão é 0,0.
--noseek
- (Opcional) Melhore a performance de download do Cloud Storage para o mainframe.
--parallel
ou-m
- (Opcional) Defina o número de escritores simultâneos como 4.
--parallelism
ou-p
=NUMBER- (opcional) Especifique o número de escritores simultâneos. O valor padrão é 4.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor padrão éauto
. --preload_chunk_count
=NUMBER- (Opcional) Especifique o número de blocos para pré-carregar de discos enquanto todos os workers estão ocupados. O valor padrão é 2.
--recfm
=REFCM- (Opcional) Especifique o recfm do arquivo que você quer copiar para o Mainframe. É possível usar um dos seguintes valores: F, FB, V, VB, U. O valor padrão é "FB".
--remote
- (Opcional) Use um decodificador remoto.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remotePort
=PORT- (Opcional) Especifica a porta remota a ser usada. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --replace
- (Opcional) Exclua o destino de forma recursiva antes do upload.
--stats_table
=TABLE- (Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--tfDSN
=DSN- (Opcional) Especifique as transformações de um DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS
=GCS- (Opcional) Especifique o arquivo de transformações do Cloud Storage.
--timeOutMinutes
=MINUTES- (Opcional) Especifique o tempo limite em minutos para uma chamada gRPC remota. O valor padrão é de 90 minutos para o Cloud Storage e 50 minutos para um mainframe.
gsutil rm
Remova objetos do Cloud Storage.
Sinopse
gsutil rm [-hR] url...
Sinalizações e argumentos
O comando gsutil rm
usa as seguintes sinalizações e argumentos:
- url
- Especifique o local do Cloud Storage no formato
gs://bucket/prefix
. --help
ou-h
- Mostrar esta mensagem de ajuda.
-R
ou-r
- Excluir de forma recursiva o conteúdo de diretórios ou objetos que correspondem à expressão de caminho.
scp
Copie arquivos para o Cloud Storage.
Sinopse
scp [options] [input] [output]
Sinalizações e argumentos
Para usar esse comando, você precisa garantir o seguinte:
- Defina um valor de entrada exclusivo usando
input
,--inDD
ou--inDsn
. - Defina um valor de saída exclusivo usando output ou
--gcsOutUri
.
O comando scp
usa as seguintes sinalizações e argumentos:
- input
- (Opcional) Especifique o DD ou DSN a ser copiado. Use
--inDD
ou--inDsn
. - output
- (Opcional) Especifique o URI da saída usando o formato gs://[BUCKET]/[PREFIX]. Use
--gcsOutUri
. --compress
- (Opcional) Compactar a saída com gzip.
--count
ou-n
=RECORDS- (Opcional) Especifique o número de registros a serem copiados. O padrão é ilimitado.
--encoding
=ENCODING- (Opcional) Especifique a codificação de caracteres de entrada. O valor padrão é CP037.
--gcsOutUri
=URI- (Opcional) Especifique o URI de destino do Cloud Storage da cópia do arquivo.
--help
ou-h
- Mostrar este texto auxiliar.
--inDD
=INPUT- (Opcional) Especifique o arquivo DD a ser copiado. O valor padrão é DD INFILE.
--inDsn
=INPUT- (Opcional) Especifique o DSN a ser copiado.
--noConvert
- (Opcional) Desativa a conversão de entrada de caracteres em ASCII. A conversão de caracteres é ativada por padrão.
systemreport
Fornecer relatório do sistema.
Sinopse
systemreport [-h] [--available_security_providers] [--supported_ciphers]
Sinalizações e argumentos
O comando systemreport
usa as seguintes sinalizações e argumentos:
--available_security_providers
- Imprimir provedores de segurança compatíveis.
--help
ou-h
- Mostrar esta mensagem de ajuda.
--supported_ciphers
- Mostra as criptografias compatíveis.