Referência da linha de comando do Mainframe Connector

Este documento descreve a sintaxe, os comandos, as flags e os argumentos da ferramenta de linha de comando do Conector de mainframe.

Comandos

bq export

Exporte uma tabela do BigQuery.

Sinopse

bq export [options]

Sinalizações e argumentos

Para executar esse comando, você precisa fornecer uma consulta SQL (consulte as flags --sql e query_dsn) e um livro de cópias (consulte a flag cobDsn). É possível executar esse comando no modo local, remoto e independente. Para o modo remoto, consulte as flags --bucket, --remoteHost, --remotePort e --remoteUrl. O comando bq export usa as seguintes flags e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
(Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--batch
(Opcional) Executar a consulta no modo em lote.
--bucket=BUCKET
(Opcional) Grave a saída do comando em um local dentro de um bucket do Cloud Storage. Os arquivos de saída são gravados no caminho de destino gs://BUCKET/EXPORT/. Esse argumento é obrigatório para o modo remoto.
--cobDsn=DSN
(Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--dataset_id=ID
(opcional) Especifica o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table=TABLE
(Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
(Opcional) Valide a consulta sem executá-la.
--encoding=ENCODING
(Opcional) Especifique o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando fornecido, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--exporter_thread_count=COUNT
(Opcional) Defina o número de linhas de execução do exportador. O valor padrão é 4.
--help ou -h
Mostrar este texto auxiliar.
--keepAliveTimeInSeconds=SECONDS
(Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_read_queue=NUMBER
(Opcional) Defina o tamanho máximo da fila de registros Avro. O valor padrão é o dobro do número de linhas de execução.
--max_read_streams=NUMBER
(Opcional) Defina o número máximo de linhas de execução de streams de leitura. O valor padrão é 4.
--maximum_bytes_billed=BYTES
(Opcional) Limite os bytes faturados pela consulta.
--order_response
(Opcional) Mantenha a resposta ordenada conforme retornada pelo BigQuery.
--outDD=OUTPUT
(Opcional) Grave os registros de saída no conjunto de dados especificado no z/OS. O valor padrão é DD OUTFILE.
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--query_dsn=DSN
(Opcional) Leia uma consulta do conjunto de dados especificado no z/OS. Use o formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se você não fornecer um valor, o Mainframe Connector vai ler de DD QUERY.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--remotePort=PORT
(Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --bucket.
--run_mode=MODE
(Opcional) Selecione a implementação de exportação. Você pode usar uma das seguintes opções:
  • directstorage: o arquivo binário é salvo localmente (padrão)
  • gcsoutput: o arquivo binário é salvo no Cloud Storage
--sql=SQL
(Opcional) Especifique a consulta SQL do BigQuery a ser executada.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--timeOutMinutes=MINUTES
(Opcional) Defina o tempo limite em minutos para a chamada grpc remota. O valor padrão é 90 minutos.
--transcoding_buffer=BUFFER
(Opcional) Define o tamanho do buffer de transcodificação por linha de execução, em MB. O valor padrão é 20.
--use_cache={true|false}
(Opcional) Para armazenar os resultados da consulta em cache, defina como "true".
--use_legacy_sql
(Opcional) Use o SQL legado em vez do SQL padrão.

bq load

Carregar dados em uma tabela do BigQuery.

Sinopse

bq load [options] tablespec path

Sinalizações e argumentos

O comando bq load usa as seguintes sinalizações e argumentos:

path
Especifica uma lista separada por vírgulas de URIs de arquivos de origem. O formato compatível é gs://bucket/path. Exemplo: gs://my-bucket/data.orc,gs://my-bucket/more-data.orc.
tablespec
Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE]
--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_jagged_rows
(Opcional) Permite a falta de colunas opcionais à direita nos dados CSV.
--allow_quoted_newlines
(Opcional) Permitir novas linhas entre aspas nos dados CSV.
--append_table
(Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--autodetect
(Opcional) Ative a detecção automática de esquema para dados CSV e JSON.
--clustering_fields=FIELDS
(Opcional) Se especificado, uma lista de colunas separada por vírgulas é usada para agrupar a tabela de destino em uma consulta. Essa flag precisa ser usada com as flags de particionamento de tempo para criar uma tabela particionada por tempo de ingestão ou uma tabela particionada em uma coluna DATE ou TIMESTAMP. Quando a sinalização é especificada, a tabela é particionada e, em seguida, armazenada em cluster usando as colunas fornecidas.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--debug_mode={true|false}
(Opcional) Defina o nível de geração de registros como "depuração".
--destination_kms_key=KEY
(Opcional) A chave do Cloud KMS para criptografia dos dados da tabela de destino.
--encoding ou -E=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--field_delimiter ou -F=FIELD
(Opcional) Especifique o delimitador de coluna nos dados CSV. Use \t ou tab para delimitadores de tabulação.
--help ou -h
Mostrar este texto auxiliar.
--ignore_unknown_values=VALUES
(Opcional) Ignorar valores não reconhecidos extras em dados CSV ou JSON.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--max_bad_records=RECORDS
(opcional) Defina o número máximo de registros inválidos permitidos antes de uma falha no job. No máximo cinco erros de qualquer tipo são retornados, seja qual for o valor de --max_bad_records. Essa flag se aplica apenas ao carregamento de dados CSV, JSON e Google Sheets. O valor padrão é 0.
--max_polling_interval_ms=MILLISECONDS
(Opcional) O tempo máximo de espera para um job do BigQuery.
--null_marker=MARKER
(Opcional) Especifique uma string personalizada que represente um valor NULL nos dados CSV.
--projection_fields=FIELDS
(opcional) Se você definir --source_format como DATASTORE_BACKUP, essa flag vai indicar as propriedades da entidade que serão carregadas de uma exportação do Datastore. Especifique os nomes das propriedades em uma lista separada por vírgulas. Nomes de propriedades diferenciam maiúsculas e minúsculas e precisam se referir às propriedades de nível superior. Também é possível usar essa flag com exportações do Firestore.
--quote=QUOTE
(Opcional) Especifique um caractere de aspas para envolver campos nos dados CSV. É possível especificar qualquer caractere de um byte como o argumento. O valor padrão é uma aspa dupla ("). Para especificar que não há caracteres de aspas, use uma string vazia.
--replace
(Opcional) Substitua os dados atuais na tabela de destino pelos dados carregados.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag --time_partitioning_field estiver definida como verdadeira. O valor padrão é falso.
--schema=SCHEMA
(Opcional) Defina o esquema da tabela de destino. Especifique o valor como uma lista separada por vírgulas de definições de coluna no formato [FIELD]:[DATA_TYPE]. Exemplo: name:STRING,age:INTEGER,city:STRING
--schema_update_option=OPTION
(Opcional) Ao anexar dados a uma tabela (em um job de carregamento ou de consulta) ou ao substituir uma partição de tabela, especifique como atualizar o esquema da tabela de destino. Use um dos seguintes valores:
  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados.
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE.
Repita essa flag para especificar várias opções de atualização de esquema.
--skip_leading_rows=NUMBER
(Opcional) Especifique o número de linhas a serem ignoradas no início do arquivo de origem. O valor padrão é 0.
--source_format=FORMAT
(Opcional) Especifique o formato dos dados de origem. É possível usar um destes valores: CSV, NEWLINE_DELIMITED_JSON, AVRO, DATASTORE_BACKUP (use esse valor para o Filestore), PARQUET, ORC. O valor padrão é ORC.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type=TYPE
(Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando o seguinte valor: DAY.
--use_avro_logical_types={true|false}
(Opcional) Se --source_format estiver definido como AVRO, defina essa flag como true para converter tipos lógicos nos tipos correspondentes (como TIMESTAMP), em vez de usar apenas os tipos brutos (como INTEGER). O valor padrão é false.

bq mk

Crie recursos do BigQuery, como tabelas integradas ou externas que precisam de particionamento e agrupamento. Também é possível usar o comando bq mk para gerar uma tabela do BigQuery diretamente da análise de cópias de COBOL usando a flag --schema_from_copybook.

Sinopse

bq mk [options]

Sinalizações e argumentos

O comando bq mk usa as seguintes sinalizações e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--tablespec=TABLE
Especifica a tabela de destino dos dados. O formato aceito é [PROJECT]:[DATASET].[TABLE].
--clustering_fields=FIELDS
(Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o agrupamento de tabelas.
--dataset_id=ID
(opcional) Especifica o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--description=DESCRIPTION
(Opcional) Forneça uma descrição para o conjunto de dados ou a tabela.
--dry_run
(Opcional) Imprima a instrução da linguagem de definição de dados (DDL) da tabela.
--encoding=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--expiration=EXPIRATION
(Opcional) Especifique a vida útil da tabela. Se você não especificar um valor, o BigQuery vai criar a tabela com a vida útil padrão do conjunto de dados ou a tabela não vai expirar.
--external_table_definition ou -e=TABLE
(Opcional) Especifique um nome e uma definição de esquema para criar uma tabela externa. Exemplo: ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help ou -h
Mostrar este texto auxiliar.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". Esse argumento se aplica apenas a tabelas particionadas e se a flag --time_partitioning_field estiver definida como verdadeira. O valor padrão é "true".
--schema=SCHEMA
(Opcional) Especifique o caminho para um arquivo de esquema JSON local ou uma lista separada por vírgulas de definições de coluna no formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e assim por diante.
--schema_from_copybook=SCHEMA
(Opcional) Gerar o esquema de um livro de cópias.
--table ou -t=TABLE
(Opcional) Crie uma tabela.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--view
(Opcional) Crie uma visualização.

bq query

Execute uma consulta do BigQuery.

Sinopse

bq query [options]

Sinalizações e argumentos

É possível executar esse comando nos modos local e remoto. Para o modo remoto, consulte as flags --remoteHost, --remotePort e --remoteUrl e a variável de ambiente BQ_QUERY_REMOTE_EXECUTION. O comando bq query usa as seguintes flags e argumentos:

--project_id=ID
Especifique o projeto a ser usado para executar esse comando.
--allow_large_results
(Opcional) Use tamanhos de tabela de destino grandes para consultas SQL legadas.
--append_table
(Opcional) Anexar os dados carregados aos dados atuais na tabela de destino.
--batch
(Opcional) Executar a consulta no modo em lote.
--clustering_fields=FIELDS
(Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especificam os campos a serem usados para o clustering de tabelas. Se você especificar esse valor com particionamento, a tabela será particionada e, em seguida, cada partição será agrupada usando as colunas fornecidas.
--create_if_needed
(Opcional) Crie a tabela de destino se ela não existir.
--dataset_id=ID
(opcional) Especifica o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destination_table=TABLE
(Opcional) Especifique a tabela de destino em que você quer gravar os resultados da consulta.
--dry_run
(Opcional) Valide a consulta sem executá-la.
--follow={true|false}
(Opcional) Para acompanhar etapas de consulta individuais ou o script como um todo, defina como "true". O valor padrão é falso.
--help ou -h
Mostrar este texto auxiliar.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--maximum_bytes_billed=BYTES
(Opcional) Especifique o limite de bytes faturados pela consulta.
--parameters=PARAMETERS
(Opcional) Especifique os parâmetros de consulta separados por vírgulas no formato [NAME]:[TYPE]:[VALUE]. Um nome vazio gera um parâmetro de posição. É possível omitir [TYPE] para assumir um valor STRING no formato name::value ou ::value. NULL produz um valor nulo.
--query_dsn=DSN
(Opcional) Especifique o DSN para ler a consulta no formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se query_dsn não for fornecido, QUERY DD será usado.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--remotePort=PORT
(Opcional) Especifique a porta remota. O valor padrão é 51770. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar a consulta no modo remoto, defina a variável de ambiente BQ_QUERY_REMOTE_EXECUTION.
--replace
(Opcional) Substitua a tabela de destino pelos resultados da consulta.
--report_row_limit=LIMIT
(Opcional) Especifique o número máximo de linhas a serem impressas no relatório de auditoria. O valor padrão é 30.
--require_partition_filter={true|false}
(opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como "true". O valor padrão é "true".
--schema_update_option=OPTION
(Opcional) Atualize o esquema da tabela de destino ao anexar dados. Use os valores a seguir:
  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados.
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE.
--split_sql={true|false}
(Opcional) Para dividir o script SQL de entrada em consultas individuais, defina como "true". O valor padrão é "true".
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--sync={true|false}
(Opcional) Execute o comando no modo síncrono.
--synchronous_mode={true|false}
(opcional) Uma alternativa para --sync.
--timeOutMinutes=MINUTES
(Opcional) Especifique o tempo limite em minutos para uma resposta de job do BigQuery. O valor padrão é 240 minutos.
--time_partitioning_expiration=SECONDS
(Opcional) Especifica quando uma partição baseada em tempo precisa ser excluída, em segundos. O prazo de validade é a soma da data UTC da partição com o valor especificado. Se você informar um número negativo, a partição baseada em tempo nunca vai expirar.
--time_partitioning_field=FIELD
(Opcional) Especifique o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.
--time_partitioning_type=TYPE
(Opcional) Ative o particionamento baseado em tempo em uma tabela e defina o tipo de partição usando um dos seguintes valores: DAY, HOUR, MONTH, YEAR.
--use_cache={true|false}
(Opcional) Para armazenar os resultados da consulta em cache, defina como "true". O valor padrão é "true".
--use_legacy_sql
(Opcional) Use o SQL legado em vez do SQL padrão.

cloud run job cancel

Cancele uma execução de job específica.

Sinopse

cloud run job cancel [-h] --project=project
--region=region EXECUTION

Sinalizações e argumentos

O comando cloud run job cancel usa as seguintes sinalizações e argumentos:

EXECUTION : string
Especifique o nome do ID de execução do job do Cloud Run.
--help ou -h
(Opcional) Mostrar esta mensagem de ajuda.
--project=PROJECT : String
Especifique o ID do projeto.
--region=REGION : String
Especifica a região em que o recurso pode ser encontrado.

cloud run job execute

Executar um job específico.

Sinopse

cloud run job execute [-h] [--async] [--tail_logs] [--wait]
                             [--dump_execution_id=execution_id]
                             [--polling_interval_sec=pollingInterval]
                             --project=project
                             --region=region
                             [--task-timeout=timeout]
                             [--args=args]...
                             [--update-env-vars=envVars]... JOB

Sinalizações e argumentos

O comando cloud run job execute usa as seguintes sinalizações e argumentos:

JOB : string
Especifique o nome do job do Cloud Run a ser executado.
--args=ARGS : String[]
(opcional) Argumentos separados por vírgulas transmitidos para a execução do comando pela imagem do contêiner. Se for fornecido, uma execução será criada com os valores de entrada.
--async
(opcional) Especifique essa flag se quiser retornar imediatamente, sem aguardar a conclusão da operação em andamento.
--dump_execution_id=EXECUTION_ID : DataPath
(Opcional) Especifica o arquivo em que o ID de execução será gravado.
--help ou -h
(Opcional) Mostrar esta mensagem de ajuda.
--polling_interval_sec=POLLINGINTERVAL : int
(opcional) Define o intervalo de pesquisa (em segundos) para mostrar registros quando --tail_logs está ativado.
Padrão: 5
--project=PROJECT : String
Especifique o ID do projeto.
--region=REGION : String
Especifica a região em que o recurso pode ser encontrado.
--tail_logs
(Opcional) Se você executar o comando no modo síncrono especificando a flag --tail_logs, o Mainframe Connector vai mostrar os registros de progresso na tela. Se você especificar as flags --tail_logs e --async, uma mensagem de erro será exibida. Como o Cloud Logging não oferece suporte a registros em tempo real, o comando só mostra os registros que já foram gravados. Como resultado, alguns registros podem estar ausentes quando você usa a flag --tail_logs. Para conferir os registros completos do job, use o comando cloud run job log após a conclusão do job.
--task-timeout=TIMEOUT : String
(Opcional) Mostra o tempo máximo (prazo) em que uma tentativa de tarefa de job pode ser executada. Formatar 1m, 20s, 1h...
Padrão: 1h
--update-env-vars=ENVVARS : String[]
(Opcional) Lista de pares de chave-valor para definir como substituições de variáveis de ambiente para uma execução de job.
--wait
(opcional) Especifique essa flag se quiser que o comando aguarde até que a execução seja concluída antes de sair.

cloud run job log

Mostrar registros do Cloud Run

Sinopse

cloud run job log [-h] [--tail] [--log-filter=filter]
                         --project=project --region=region
                         --timeout=timeout EXECUTION_ID

Sinalizações e argumentos

O comando cloud run job log usa as seguintes sinalizações e argumentos:

EXECUTION_ID : string
O nome do ID de execução do job do Cloud Run.
--help ou -h
(Opcional) Mostrar esta mensagem de ajuda.
--log-filter=FILTER : String
(Opcional) Expressão de filtro que especifica as entradas de registro a serem retornadas.
--project=PROJECT : String
Especifique o ID do projeto.
--region=REGION : String
Especifica a região em que o recurso pode ser encontrado.
--tail
(opcional) Mostra apenas novos registros a partir de agora quando definido. Se não for definido, todos os registros de trabalho serão mostrados.
--timeout=TIMEOUT : String
Tempo limite, depois que o comando for encerrado. Se definido como valor negativo, o comando será encerrado quando o job for concluído. Formatar 1m, 20s, 1h...

gsutil cp

Transcodifique dados do mainframe para um bucket do Cloud Storage.

Sinopse

gsutil cp [options] gcsUri [dest]

Sinalizações e argumentos

Você pode usar esse comando para os seguintes propósitos:

  • Copie e transcodifique um arquivo de um mainframe ou ambiente Linux para o Cloud Storage.
    • Origem: --inDSN. Se não for fornecido, será especificado por DD INFILE.
    • Destino: gcsUri
  • Copiar e transcodificar um arquivo no Cloud Storage
    • Origem: gcsUri
    • Destino: --destPath
  • Copie um arquivo do Cloud Storage para um mainframe.
    • Origem: gcsUri
    • Destino: --destDSN
    • Flags relevantes: --lrecl, --blksize, --recfm, --noseek.
  • Copie um arquivo do Cloud Storage para um ambiente Linux.
    • Origem: gcsUri
    • Destino: --destPath
Esse comando pode ser executado nos modos local, remoto e independente. Para o modo remoto, consulte as flags --remote, --remoteHost, --remotePort e --remoteUrl. O comando gsutil cp usa as seguintes flags e argumentos:

dest
(opcional) O caminho local ou o nome da fonte de dados (DSN, na sigla em inglês). Exemplos de formatos: /path/to/file, DATASET.MEMBER
gcsUri
O URI do Cloud Storage no formato gs://bucket/path. Pode representar a origem e o destino, dependendo do uso.
--batchSize=SIZE
(Opcional) Especifica os blocos a serem usados por lote. O valor padrão é 1.000.
--blksize=SIZE
(Opcional) Especifique o tamanho do bloco do arquivo a ser copiado para o Mainframe. Se blksize=0 e recfm não forem U, o sistema mainframe vai determinar o tamanho de bloco ideal para o arquivo.
--cobDsn=DSN
(Opcional) Especifique o DSN de cópia que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler o DD COPYBOOK.
--connections=NUMBER
(Opcional) Especifique o número de conexões que podem ser feitas para o receptor remoto. O valor padrão é 10.
--dataset_id=ID
(Opcional) Especifique o conjunto de dados padrão a ser usado com o comando. É possível definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver ausente, o projeto padrão será usado.
--destDSN=OUTPUT
(Opcional) Especifique o DSN de destino.
--destPath=OUTPUT
(Opcional) Especifique o caminho de destino.
--dry_run
(Opcional) Teste a análise e a decodificação de copybook do arquivo QSAM.
--encoding=ENCODING
(Opcional) Especifica o conjunto de caracteres a ser usado para codificar e decodificar campos de caracteres. Quando especificado, esse valor substitui o padrão definido pela variável de ambiente ENCODING.
--help ou -h
Mostrar este texto auxiliar.
--inDsn=DSN
(Opcional) Especifique o DSN do arquivo que você quer usar. Se você não fornecer um valor, o Mainframe Connector vai ler de DD INFILE.
--keepAliveTimeInSeconds=SECONDS
(Opcional) Especifica o tempo limite de keep-alive em segundos para um canal HTTP. O valor padrão é de 480 segundos.
--location=LOCATION
(opcional) Especifique uma região ou um local multirregional para executar o comando. O valor padrão é "US".
--lowerCaseColumnNames
(Opcional) Crie nomes de colunas em letras minúsculas para campos de livro de cópias.
--lrecl=LRECL
(Opcional) Especifique o comprimento do registro lógico (lrecl) do arquivo que você quer copiar para o Mainframe.
--maxChunkSize=SIZE
(Opcional) Especifique o tamanho máximo de bloco por lote. Use K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB para descrever o tamanho. O valor padrão é 128 MiB.
--max_error_pct=PCT
(Opcional) Especifique o limite de falha do job para erros de decodificação de linha. Os valores válidos estão no intervalo [0, 1]. O valor padrão é 0,0.
--noseek
(Opcional) Melhore a performance de download do Cloud Storage para o mainframe.
--parallel ou -m
(Opcional) Defina o número de escritores simultâneos como 4.
--parallelism ou -p=NUMBER
(opcional) Especifique o número de escritores simultâneos. O valor padrão é 4.
--parser_type=TYPE
(Opcional) Defina o analisador de configuração como legacy, copybook ou auto. O valor padrão é auto.
--preload_chunk_count=NUMBER
(Opcional) Especifique o número de blocos para pré-carregar de discos enquanto todos os workers estão ocupados. O valor padrão é 2.
--project_id=ID
(Opcional) Especifique o projeto a ser usado para executar esse comando.
--recfm=REFCM
(Opcional) Especifique o recfm do arquivo que você quer copiar para o Mainframe. É possível usar um dos seguintes valores: F, FB, V, VB, U. O valor padrão é "FB".
--remote
(Opcional) Use um decodificador remoto.
--remoteHost=HOST
(Opcional) Especifique o endereço IP do host remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--remotePort=PORT
(Opcional) Especifica a porta remota a ser usada. O valor padrão é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--remoteUrl=URL
(Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag --remote.
--replace
(Opcional) Exclua o destino de forma recursiva antes do upload.
--stats_table=TABLE
(Opcional) Especifique a tabela em que as estatísticas serão inseridas.
--tfDSN=DSN
(Opcional) Especifique as transformações de um DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS=GCS
(Opcional) Especifique o arquivo de transformações do Cloud Storage.
--timeOutMinutes=MINUTES
(Opcional) Especifique o tempo limite em minutos para uma chamada gRPC remota. O valor padrão é de 90 minutos para o Cloud Storage e 50 minutos para um mainframe.

gsutil rm

Remova objetos do Cloud Storage.

Sinopse

gsutil rm [-hR] url...

Sinalizações e argumentos

O comando gsutil rm usa as seguintes sinalizações e argumentos:

url : List<GcsBlobId>
Especifique o local do Cloud Storage no formato gs://bucket/prefix.
--help ou -h
(Opcional) Mostrar esta mensagem de ajuda.
-R ou -r
(Opcional) Exclua recursivamente o conteúdo de diretórios ou objetos que correspondem à expressão de caminho.

scp

Copie arquivos para o Cloud Storage.

Sinopse

scp [options] [input] [output]

Sinalizações e argumentos

Para usar esse comando, você precisa garantir o seguinte:

  • Defina um valor de entrada exclusivo usando input, --inDD ou --inDsn.
  • Defina um valor de saída exclusivo usando output ou --gcsOutUri.

O comando scp usa as seguintes sinalizações e argumentos:

input
(Opcional) Especifique o DD ou DSN a ser copiado. Use --inDD ou --inDsn.
output
(Opcional) Especifique o URI da saída usando o formato gs://[BUCKET]/[PREFIX]. Use --gcsOutUri.
--compress
(Opcional) Compactar a saída com gzip.
--count ou -n=RECORDS
(Opcional) Especifique o número de registros a serem copiados. O padrão é ilimitado.
--encoding=ENCODING
(Opcional) Especifique a codificação de caracteres de entrada. O valor padrão é CP037.
--gcsOutUri=URI
(Opcional) Especifique o URI do Cloud Storage de destino da cópia do arquivo.
--help ou -h
Mostrar este texto auxiliar.
--inDD=INPUT
(Opcional) Especifique o arquivo DD a ser copiado. O valor padrão é DD INFILE.
--inDsn=INPUT
(Opcional) Especifique o DSN a ser copiado.
--noConvert
(Opcional) Desativa a conversão de entrada de caracteres em ASCII. A conversão de caracteres é ativada por padrão.

systemreport

Fornecer relatório do sistema.

Sinopse

systemreport [-h] [--available_security_providers] [--supported_ciphers]

Sinalizações e argumentos

O comando systemreport usa as seguintes sinalizações e argumentos:

--available_security_providers
(Opcional) Mostrar os provedores de segurança compatíveis.
--help ou -h
(Opcional) Mostrar esta mensagem de ajuda.
--supported_ciphers
(Opcional) Imprime as cifras compatíveis.

Tipos de parâmetros

DataPath

O DataPath é uma string que representa uma entrada ou saída.
Prefixo DD:
Os caminhos de dados com esse prefixo apontam para um DD quando executados em um job JCL. Exemplo: DD:DDNAME.
Prefixo DSN:
Os caminhos de dados com esse prefixo apontam para um DSN quando executados em um mainframe IBM. Exemplo: DSD:HQ.FOO.BAR.
Prefixo file:
Os caminhos de dados com esse prefixo apontam para um arquivo Unix. É possível especificar um lrecl adicionando o lrecl como #lrecl antes do :. Exemplos: file:/path/to/file, file#80:/path/to/file.
Prefixo gs://
Os caminhos de dados com esse prefixo apontam para um arquivo no Cloud Storage. Exemplo: gs://my_bucket/my/file.txt