Referência da linha de comando do Mainframe Connector

Este documento descreve a sintaxe, os comandos, as flags e os argumentos da ferramenta de linha de comando do Conector de mainframe.

Comandos

bq export

Exporte uma tabela do BigQuery.

Sinopse

bq export [options]

Sinalizações e argumentos

Para executar esse comando, você precisa fornecer uma consulta SQL (consulte as flags --sql e query_dsn) e um livro de cópias (consulte a flag cobDsn). É possível executar esse comando no modo local, remoto e independente. Para o modo remoto, consulte as flags --bucket, --remoteHost, --remotePort e --remoteUrl. O comando bq export usa as seguintes flags e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
(Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--batch
(Opcional) Executar a consulta no modo em lote.
--bucket=BUCKET
(Opcional) Grave a saída do comando em um local dentro de um bucket do Cloud Storage. Os arquivos de saída são gravados no caminho de destino gs://BUCKET/EXPORT/. Esse argumento é obrigatório para o modo remoto.
--cobDsn=DSN
(Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table=TABLE
(Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
(Opcional) Valide a consulta sem executá-la.
--encoding=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando fornecido, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--exporter_thread_count=COUNT
(Opcional) Defina o número de linhas de execução do exportador. O valor padrão é 4.
--help ou -h
Mostrar este texto auxiliar.
--keepAliveTimeInSeconds=SECONDS
(Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_read_queue=NUMBER
(Opcional) Defina o tamanho máximo da fila de registros Avro. O valor padrão é o dobro do número de linhas de execução.
--max_read_streams=NUMBER
(Opcional) Defina o número máximo de linhas de execução de streams de leitura. O valor padrão é 4.
--maximum_bytes_billed=BYTES
(Opcional) Limite os bytes faturados pela consulta.
--order_response
(Opcional) Mantenha a resposta ordenada conforme retornada pelo BigQuery.
--outDD=OUTPUT
(Opcional) Grave os registros de saída no conjunto de dados especificado no z/OS. O valor padrão é DD OUTFILE.
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--query_dsn=DSN
(Opcional) Leia uma consulta do conjunto de dados especificado no z/OS. Use o formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se você não fornecer um valor, o Mainframe Connector vai ler de DD QUERY.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--remotePort=PORT
(Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--run_mode=MODE
(Opcional) Selecione a implementação de exportação. Você pode usar uma das seguintes opções:
  • directstorage: o arquivo binário é salvo localmente (padrão)
  • gcsoutput: o arquivo binário é salvo no Cloud Storage
--sql=SQL
(Opcional) Especifique a consulta SQL do BigQuery a ser executada.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--timeOutMinutes=MINUTES
(Opcional) Defina o tempo limite em minutos para a chamada grpc remota. O valor padrão é 90 minutos.
--transcoding_buffer=BUFFER
(Opcional) Define o tamanho do buffer de transcodificação por linha de execução, em MB. O valor padrão é 20.
--use_cache={true|false}
(Opcional) Para armazenar os resultados da consulta em cache, defina como "true".
--use_legacy_sql
(Opcional) Use o SQL legado em vez do SQL padrão.

bq load

Carregar dados em uma tabela do BigQuery.

Sinopse

bq load [options] tablespec path

Sinalizações e argumentos

O comando bq load usa as seguintes sinalizações e argumentos:

path
Especifica uma lista separada por vírgulas de URIs de arquivos de origem. O formato compatível é gs://bucket/path. Exemplo: gs://my-bucket/data.orc,gs://my-bucket/more-data.orc.
tablespec
Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE]
--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_jagged_rows
(Opcional) Permite a falta de colunas opcionais à direita nos dados CSV.
--allow_quoted_newlines
(Opcional) Permitir novas linhas entre aspas nos dados CSV.
--append_table
(Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--autodetect
(Opcional) Ative a detecção automática de esquema para dados CSV e JSON.
--clustering_fields=FIELDS
(Opcional) Se especificado, uma lista de colunas separada por vírgulas é usada para agrupar a tabela de destino em uma consulta. Essa flag precisa ser usada com as flags de particionamento de tempo para criar uma tabela particionada por tempo de processamento ou uma tabela particionada em uma coluna DATE ou TIMESTAMP. Quando a sinalização é especificada, a tabela é particionada e, em seguida, armazenada em cluster usando as colunas fornecidas.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--debug_mode={true|false}
(Opcional) Defina o nível de geração de registros como "depuração".
--destination_kms_key=KEY
(Opcional) A chave do Cloud KMS para criptografia dos dados da tabela de destino.
--encoding ou -E=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--field_delimiter ou -F=FIELD
(Opcional) Especifique o delimitador de coluna nos dados CSV. Use \t ou tab para delimitadores de tabulação.
--help ou -h
Mostrar este texto auxiliar.
--ignore_unknown_values=VALUES
(Opcional) Ignorar valores não reconhecidos extras nos dados CSV ou JSON.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_bad_records=RECORDS
(opcional) Defina o número máximo de registros inválidos permitidos antes de uma falha no job. No máximo, cinco erros de qualquer tipo são retornados, seja qual for o valor de --max_bad_records. Essa flag se aplica apenas ao carregamento de dados CSV, JSON e Google Sheets. O valor padrão é 0.
--max_polling_interval_ms=MILLISECONDS
(Opcional) O tempo máximo de espera para um job do BigQuery.
--null_marker=MARKER
(Opcional) Especifique uma string personalizada que represente um valor NULL nos dados CSV.
--projection_fields=FIELDS
(opcional) Se você definir --source_format como DATASTORE_BACKUP, essa flag vai indicar as propriedades da entidade que serão carregadas de uma exportação do Datastore. Especifique os nomes das propriedades em uma lista separada por vírgulas. Nomes de propriedades diferenciam maiúsculas e minúsculas e precisam se referir às propriedades de nível superior. Também é possível usar essa flag com exportações do Firestore.
--quote=QUOTE
(Opcional) Especifique um caractere de aspas para cercar campos nos dados CSV. É possível especificar qualquer caractere de um byte como o argumento. O valor padrão é uma aspa dupla ("). Para especificar que não há caracteres de aspas, use uma string vazia.
--replace
(Opcional) Substitua os dados atuais na tabela de destino pelos dados carregados.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag --time_partitioning_field estiver definida como verdadeira. O valor padrão é falso.
--schema=SCHEMA
(Opcional) Defina o esquema da tabela de destino. Especifique o valor como uma lista separada por vírgulas de definições de coluna no formato [FIELD]:[DATA_TYPE]. Exemplo: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(Opcional) Ao anexar dados a uma tabela (em um job de carregamento ou de consulta) ou ao substituir uma partição de tabela, especifique como atualizar o esquema da tabela de destino. Use um dos seguintes valores:
  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados.
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE.
Repita essa flag para especificar várias opções de atualização de esquema.
--skip_leading_rows=NUMBER
(Opcional) Especifique o número de linhas a serem ignoradas no início do arquivo de origem. O valor padrão é 0.
--source_format=FORMAT
(Opcional) Especifique o formato dos dados de origem. É possível usar um destes valores: CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (use esse valor para o Filestore), PARQUET, ORC. O valor padrão é ORC.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type=TYPE
(Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando o seguinte valor: DAY.
--use_avro_logical_types={true|false}
(Opcional) Se --source_format estiver definido como AVRO, defina essa flag como true para converter tipos lógicos nos tipos correspondentes (como TIMESTAMP), em vez de usar apenas os tipos brutos (como INTEGER). O valor padrão é false.

bq mk

Crie recursos do BigQuery, como tabelas integradas ou externas que precisam de particionamento e agrupamento. Também é possível usar o comando bq mk para gerar uma tabela do BigQuery diretamente da análise de cópias de COBOL usando a flag --schema_from_copybook.

Sinopse

bq mk [options]

Sinalizações e argumentos

O comando bq mk usa as seguintes sinalizações e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--tablespec=TABLE
Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE].
--clustering_fields=FIELDS
(Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o agrupamento de tabelas.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--description=DESCRIPTION
(Opcional) Forneça uma descrição para o conjunto de dados ou a tabela.
--dry_run
(Opcional) Imprima a instrução da linguagem de definição de dados (DDL) da tabela.
--encoding=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--expiration=EXPIRATION
(Opcional) Especifique a vida útil da tabela. Se você não especificar um valor, o BigQuery vai criar a tabela com a vida útil padrão do conjunto de dados ou a tabela não vai expirar.
--external_table_definition ou -e=TABLE
(Opcional) Especifique um nome e uma definição de esquema para criar uma tabela externa. Exemplo: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help ou -h
Mostrar este texto auxiliar.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag --time_partitioning_field estiver definida como verdadeira. O valor padrão é "true".
--schema=SCHEMA
(Opcional) Especifique o caminho para um arquivo de esquema JSON local ou uma lista separada por vírgulas de definições de coluna no formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e assim por diante.
--schema_from_copybook=SCHEMA
(Opcional) Gerar o esquema de um livro de cópias.
--table ou -t=TABLE
(Opcional) Crie uma tabela.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--view
(Opcional) Crie uma visualização.

bq query

Execute uma consulta do BigQuery.

Sinopse

bq query [options]

Sinalizações e argumentos

É possível executar esse comando nos modos local e remoto. Para o modo remoto, consulte as flags --remoteHost, --remotePort e --remoteUrl e a variável de ambiente BQ_QUERY_REMOTE_EXECUTION. O comando bq query usa as seguintes flags e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
(Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--append_table
(Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--batch
(Opcional) Executar a consulta no modo em lote.
--clustering_fields=FIELDS
(Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o clustering de tabelas. Se você especificar esse valor com particionamento, a tabela será particionada e, em seguida, cada partição será agrupada usando as colunas fornecidas.
--create_if_needed
(Opcional) Crie a tabela de destino se ela não existir.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table=TABLE
(Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
(Opcional) Valide a consulta sem executá-la.
--follow={true|false}
(Opcional) Para acompanhar etapas de consulta individuais ou o script como um todo, defina como "true". O valor padrão é falso.
--help ou -h
Mostrar este texto auxiliar.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--maximum_bytes_billed=BYTES
(Opcional) Especifique o limite de bytes faturados pela consulta.
--parameters=PARAMETERS
(Opcional) Especifique os parâmetros de consulta separados por vírgulas no formato [NAME]:[TYPE]:[VALUE]. Um nome vazio gera um parâmetro de posição. É possível omitir [TYPE] para assumir um valor STRING no formato name::value ou ::value. NULL produz um valor nulo.
--query_dsn=DSN
(Opcional) Especifique o DSN para ler a consulta no formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se query_dsn não for fornecido, QUERY DD será usado.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--remotePort=PORT
(Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--replace
(Opcional) Substitua a tabela de destino pelos resultados da consulta.
--report_row_limit=LIMIT
(Opcional) Especifique o número máximo de linhas a serem impressas no relatório de auditoria. O valor padrão é 30.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". O valor padrão é "true".
--schema_update_option=OPTION
(Opcional) Atualize o esquema da tabela de destino ao anexar dados. Use os valores a seguir:
  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados.
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE.
--split_sql={true|false}
(Opcional) Para dividir o script SQL de entrada em consultas individuais, defina como "true". O valor padrão é "true".
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--sync={true|false}
(Opcional) Execute o comando no modo síncrono.
--synchronous_mode={true|false}
(opcional) Uma alternativa para --sync.
--timeOutMinutes=MINUTES
(Opcional) Especifique o tempo limite em minutos para uma resposta de job do BigQuery. O valor padrão é 240 minutos.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type=TYPE
(Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando um dos seguintes valores: DAY, HOUR, MONTH, YEAR.
--use_cache={true|false}
(Opcional) Para armazenar os resultados da consulta em cache, defina como "true". O valor padrão é "true".
--use_legacy_sql
(Opcional) Use o SQL legado em vez do SQL padrão.

gsutil cp

Transcodifique dados do mainframe para um bucket do Cloud Storage.

Sinopse

gsutil cp [options] gcsUri [dest]

Sinalizações e argumentos

É possível usar esse comando para os seguintes propósitos:

  • Copie e transcodifique um arquivo de um mainframe ou ambiente Linux para o Cloud Storage.
    • Origem: --inDSN. Se não for fornecido, será especificado por DD INFILE.
    • Destino: gcsUri
  • Copiar e transcodificar um arquivo no Cloud Storage
    • Origem: gcsUri
    • Destino: --destPath
  • Copie um arquivo do Cloud Storage para um mainframe.
    • Origem: gcsUri
    • Destino: --destDSN
    • Flags relevantes: --lrecl, --blksize, --recfm, --noseek.
  • Copie um arquivo do Cloud Storage para um ambiente Linux.
    • Origem: gcsUri
    • Destino: --destPath
Esse comando pode ser executado nos modos local, remoto e independente. Para o modo remoto, consulte as flags --remote, --remoteHost, --remotePort e --remoteUrl. O comando gsutil cp usa as seguintes flags e argumentos:

dest
(opcional) O caminho local ou o nome da fonte de dados (DSN, na sigla em inglês). Exemplos de formatos: /path/to/file, DATASET.MEMBER
gcsUri
O URI do Cloud Storage no formato gs://bucket/path. Pode representar a origem e o destino, dependendo do uso.
--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--batchSize=SIZE
(opcional) Especifica os blocos a serem usados por lote. O valor padrão é 1.000.
--blksize=SIZE
(Opcional) Especifique o tamanho do bloco do arquivo a ser copiado para o Mainframe. Se blksize=0 e recfm não forem U, o sistema mainframe vai determinar o tamanho de bloco ideal para o arquivo.
--cobDsn=DSN
(Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--connections=NUMBER
(Opcional) Especifique o número de conexões que podem ser feitas para o receptor remoto. O valor padrão é 10.
--dataset_id=ID
(opcional) Especifica o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destDSN=OUTPUT
(Opcional) Especifique o DSN de destino.
--destPath=OUTPUT
(Opcional) Especifique o caminho de destino.
--dry_run
(Opcional) Teste a análise e a decodificação de copybook do arquivo QSAM.
--encoding=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--help ou -h
Mostrar este texto auxiliar.
--inDsn=DSN
(Opcional) Especifique o DSN do arquivo que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD INFILE.
--keepAliveTimeInSeconds=SECONDS
(Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--lowerCaseColumnNames
(Opcional) Crie nomes de colunas em letras minúsculas para campos de livro de cópias.
--lrecl=LRECL
(Opcional) Especifique o comprimento do registro lógico (lrecl) do arquivo que você quer copiar para o Mainframe.
--maxChunkSize=SIZE
(Opcional) Especifique o tamanho máximo de bloco por lote. Use K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB para descrever o tamanho. O valor padrão é 128 MiB.
--max_error_pct=PCT
(Opcional) Especifique o limite de falha do job para erros de decodificação de linha. Os valores válidos estão no intervalo [0, 1]. O valor padrão é 0,0.
--noseek
(Opcional) Melhore a performance de download do Cloud Storage para o mainframe.
--parallel ou -m
(Opcional) Defina o número de escritores simultâneos como 4.
--parallelism ou -p=NUMBER
(opcional) Especifique o número de escritores simultâneos. O valor padrão é 4.
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--preload_chunk_count=NUMBER
(Opcional) Especifique o número de blocos para pré-carregar de discos enquanto todos os workers estão ocupados. O valor padrão é 2.
--recfm=REFCM
(Opcional) Especifique o recfm do arquivo que você quer copiar para o Mainframe. É possível usar um dos seguintes valores: F, FB, V, VB, U. O valor padrão é "FB".
--remote
(Opcional) Use um decodificador remoto.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--remotePort=PORT
(Opcional) Especifica a porta remota a ser usada. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--replace
(Opcional) Exclua o destino de forma recursiva antes do upload.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--tfDSN=DSN
(Opcional) Especifique as transformações de um DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS=GCS
(Opcional) Especifique o arquivo de transformações do Cloud Storage.
--timeOutMinutes=MINUTES
(Opcional) Especifique o tempo limite em minutos para uma chamada gRPC remota. O valor padrão é de 90 minutos para o Cloud Storage e 50 minutos para um mainframe.

gsutil rm

Remova objetos do Cloud Storage.

Sinopse

gsutil rm [-hR] url...

Sinalizações e argumentos

O comando gsutil rm usa as seguintes sinalizações e argumentos:

url
Especifique o local do Cloud Storage no formato gs://bucket/prefix.
--help ou -h
Mostrar esta mensagem de ajuda.
-R ou -r
Excluir de forma recursiva o conteúdo de diretórios ou objetos que correspondem à expressão de caminho.

scp

Copie arquivos para o Cloud Storage.

Sinopse

scp [options] [input] [output]

Sinalizações e argumentos

Para usar esse comando, você precisa garantir o seguinte:

  • Defina um valor de entrada exclusivo usando input, --inDD ou --inDsn.
  • Defina um valor de saída exclusivo usando output ou --gcsOutUri.

O comando scp usa as seguintes sinalizações e argumentos:

input
(Opcional) Especifique o DD ou DSN a ser copiado. Use --inDD ou --inDsn.
output
(Opcional) Especifique o URI da saída usando o formato gs://[BUCKET]/[PREFIX]. Use --gcsOutUri.
--compress
(Opcional) Compactar a saída com gzip.
--count ou -n=RECORDS
(Opcional) Especifique o número de registros a serem copiados. O padrão é ilimitado.
--encoding=ENCODING
(Opcional) Especifique a codificação de caracteres de entrada. O valor padrão é CP037.
--gcsOutUri=URI
(Opcional) Especifique o URI de destino do Cloud Storage da cópia do arquivo.
--help ou -h
Mostrar este texto auxiliar.
--inDD=INPUT
(Opcional) Especifique o arquivo DD a ser copiado. O valor padrão é DD INFILE.
--inDsn=INPUT
(Opcional) Especifique o DSN a ser copiado.
--noConvert
(Opcional) Desativa a conversão de entrada de caracteres em ASCII. A conversão de caracteres é ativada por padrão.

systemreport

Fornecer relatório do sistema.

Sinopse

systemreport [-h] [--available_security_providers] [--supported_ciphers]

Sinalizações e argumentos

O comando systemreport usa as seguintes sinalizações e argumentos:

--available_security_providers
Imprimir provedores de segurança compatíveis.
--help ou -h
Mostrar esta mensagem de ajuda.
--supported_ciphers
Mostra as criptografias compatíveis.