Comandos
bq export
Exporte uma tabela do BigQuery.
Sinopse
bq export [options]
Sinalizações e argumentos
Para executar este comando, tem de fornecer uma consulta SQL (consulte as flags --sql
e query_dsn
) e um copybook (consulte a flag cobDsn
). Pode executar este comando no modo local, remoto e autónomo. Para o modo remoto, consulte as flags --bucket
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando bq export
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a usar para executar este comando.
--allow_large_results
- (Opcional) Use tamanhos de tabelas de destino grandes para consultas SQL antigas.
--batch
- (Opcional) Execute a consulta no modo de lote.
--bucket
=BUCKET- (Opcional) Especifique uma localização no Cloud Storage para escrever o resultado do comando. Se
run_mode
forgcsoutput
, este parâmetro deve ser definido como um URI do Cloud Storage no formatogs://example-bucket/example-prefix/example-filename.orc
. Caso contrário, os ficheiros de saída são escritos no caminho de destinogs://BUCKET/EXPORT/
. Este argumento é obrigatório para o modo remoto. --cobDsn
=DSN- (Opcional) Especifique o DSN do livro de cópias que quer usar. Se não fornecer um valor, o Mainframe Connector lê a partir de DD COPYBOOK.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados predefinido a usar com o comando. Pode definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver em falta, é usado o projeto predefinido.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino na qual quer escrever os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem a executar.
--encoding
=ENCODING- (Opcional) Especifique o conjunto de carateres a usar para codificar e descodificar campos de carateres. Quando fornecido, este valor substitui o valor predefinido definido pela variável de ambiente
ENCODING
. --exporter_thread_count
=COUNT- (Opcional) Defina o número de threads do exportador. O valor predefinido é 4.
--help
ou-h
- Apresentar este texto de ajuda.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifique o tempo limite de manutenção ativo em segundos para um canal HTTP. O valor predefinido é 480 segundos.
--location
=LOCATION- (Opcional) Especifique uma região ou uma localização multirregional para executar o comando. O valor predefinido é US.
--max_read_queue
=NUMBER- (Opcional) Defina o tamanho máximo da fila de registos Avro. O valor predefinido é o dobro do número de threads.
--max_read_streams
=NUMBER- (Opcional) Defina o número máximo de threads de streams de leitura. O valor predefinido é 4.
--maximum_bytes_billed
=BYTES- (Opcional) Limite os bytes faturados para a consulta.
--order_response
- (Opcional) Mantenha a resposta ordenada conforme devolvida pelo BigQuery.
--outDD
=OUTPUT- (Opcional) Escreva os registos de saída no conjunto de dados especificado no z/OS. O valor predefinido é DD OUTFILE.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor predefinido éauto
. --query_dsn
=DSN- (Opcional) Leia uma consulta do conjunto de dados especificado no z/OS. Use o formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se não fornecer um valor, o Mainframe Connector lê a partir de DD QUERY.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do anfitrião remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor predefinido é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--bucket
. --run_mode
=MODE- (Opcional) Selecione a implementação da exportação. Pode usar uma das seguintes opções:
directstorage
: o ficheiro binário é guardado localmente (predefinição)gcsoutput
: o ficheiro binário é guardado no Cloud Storage
--sql
=SQL- (Opcional) Especifique a consulta SQL do BigQuery a executar.
--stats_table
=TABLE- (Opcional) Especifique a tabela na qual inserir estatísticas.
--timeOutMinutes
=MINUTES- (Opcional) Defina o limite de tempo em minutos para a chamada grpc remota. O valor predefinido é 90 minutos.
--transcoding_buffer
=BUFFER- (Opcional) Define o tamanho da memória intermédia de transcodificação por segmento, em MB. O valor predefinido é 20.
--use_cache
={true|false}- (Opcional) Para colocar os resultados da consulta em cache, defina como verdadeiro.
--use_legacy_sql
- (Opcional) Use o SQL antigo em vez do SQL padrão.
bq load
Carregue dados para uma tabela do BigQuery.
Sinopse
bq load [options] tablespec path
Sinalizações e argumentos
O comando bq load
usa as seguintes flags e argumentos:
- path
- Especifique uma lista de URIs de ficheiros de origem separados por vírgulas. O formato suportado é
gs://bucket/path
. Exemplo:gs://my-bucket/data.orc,gs://my-bucket/more-data.orc
. - tablespec
- Especifique a tabela de destino dos dados. O formato suportado é [PROJECT]:[DATASET].[TABLE]
--project_id
=ID- Especifique o projeto a usar para executar este comando.
--allow_jagged_rows
- (Opcional) Permitir colunas opcionais finais em falta nos dados CSV.
--allow_quoted_newlines
- (Opcional) Permitir novas linhas entre aspas nos dados CSV.
--append_table
- (Opcional) Anexe os dados carregados aos dados existentes na tabela de destino.
--autodetect
- (Opcional) Ative a deteção automática de esquemas para dados CSV e JSON.
--clustering_fields
=FIELDS- (Opcional) Se especificado, é usada uma lista de colunas separadas por vírgulas para agrupar a tabela de destino numa consulta. Este sinalizador tem de ser usado com os sinalizadores de partição por tempo para criar uma tabela particionada por tempo de ingestão ou uma tabela particionada numa coluna
DATE
ouTIMESTAMP
. Quando especificado, a tabela é primeiro particionada e, em seguida, agrupada em clústeres através das colunas fornecidas. --dataset_id
=ID- (Opcional) Especifique o conjunto de dados predefinido a usar com o comando. Pode definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver em falta, é usado o projeto predefinido.
--debug_mode
={true|false}- (Opcional) Defina o nível de registo como depuração.
--destination_kms_key
=KEY- (Opcional) A chave do Cloud KMS para a encriptação dos dados da tabela de destino.
--encoding
ou-E
=ENCODING- (Opcional) Especifique o conjunto de carateres a usar para codificar e descodificar campos de carateres. Quando especificado, este valor substitui o valor predefinido definido pela variável de ambiente
ENCODING
. --field_delimiter
ou-F
=FIELD- (Opcional) Especifique o delimitador de colunas nos dados CSV. Use
\t
outab
para delimitadores de tabulações. --help
ou-h
- Apresentar este texto de ajuda.
--ignore_unknown_values
=VALUES- (Opcional) Ignorar valores adicionais não reconhecidos em dados CSV ou JSON.
--location
=LOCATION- (Opcional) Especifique uma região ou uma localização multirregional para executar o comando. O valor predefinido é US.
--max_bad_records
=RECORDS- (Opcional) Defina o número máximo de registos inválidos permitidos antes de a tarefa falhar. São devolvidos um máximo de cinco erros de qualquer tipo, independentemente do valor de
--max_bad_records
. Esta flag aplica-se apenas ao carregamento de dados CSV, JSON e do Google Sheets. O valor predefinido é 0. --max_polling_interval_ms
=MILLISECONDS- (Opcional) O tempo de espera máximo para uma tarefa do BigQuery.
--null_marker
=MARKER- (Opcional) Especifique uma string personalizada que represente um valor
NULL
nos dados CSV. --projection_fields
=FIELDS- (Opcional) Se definir
--source_format
comoDATASTORE_BACKUP
, esta flag indica as propriedades da entidade a carregar a partir de uma exportação do Datastore. Especifique os nomes das propriedades numa lista separada por vírgulas. Os nomes das propriedades são sensíveis a maiúsculas e minúsculas e têm de se referir a propriedades de nível superior. Também pode usar esta flag com exportações do Firestore. --quote
=QUOTE- (Opcional) Especifique um caráter de aspas para envolver os campos nos dados CSV. Pode especificar qualquer caráter de um byte como argumento. O valor predefinido é uma aspa dupla ("). Para especificar que não existem carateres de aspas, use uma string vazia.
--replace
- (Opcional) Substitua os dados existentes na tabela de destino pelos dados carregados.
--require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como verdadeiro. Este argumento aplica-se apenas a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como verdadeira. O valor predefinido é false. --schema
=SCHEMA- (Opcional) Defina o esquema da tabela de destino. Especifique o valor como uma lista separada por vírgulas de definições de colunas no formato [FIELD]:[DATA_TYPE]. Exemplo:
name:STRING,age:INTEGER,city:STRING
--schema_update_option
=OPTION- (Opcional) Quando acrescenta dados a uma tabela (num trabalho de carregamento ou num trabalho de consulta) ou quando substitui uma partição de tabela, especifique como atualizar o esquema da tabela de destino. Use um dos seguintes valores:
ALLOW_FIELD_ADDITION
: permitir a adição de novos camposALLOW_FIELD_RELAXATION
: permitir a flexibilização dos camposREQUIRED
paraNULLABLE
--skip_leading_rows
=NUMBER- (Opcional) Especifique o número de linhas a ignorar no início do ficheiro de origem. O valor predefinido é 0.
--source_format
=FORMAT- (Opcional) Especifique o formato dos dados de origem. Pode usar um dos seguintes valores:
CSV
,NEWLINE_DELIMITED_JSON
,AVRO
,DATASTORE_BACKUP
(use este valor para o Filestore),PARQUET
,ORC
. O valor predefinido éORC
. --stats_table
=TABLE- (Opcional) Especifique a tabela na qual inserir estatísticas.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada no tempo deve ser eliminada, em segundos. O tempo de expiração é avaliado como a data UTC da partição mais o valor especificado. Se fornecer um número negativo, a partição baseada no tempo nunca expira.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada no tempo. Se a partição baseada no tempo estiver ativada sem este valor, a tabela é particionada com base na hora de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative a partição baseada no tempo numa tabela e defina o tipo de partição com o seguinte valor:
DAY
. --use_avro_logical_types
={true|false}- (Opcional) Se
--source_format
estiver definido comoAVRO
, defina este indicador como verdadeiro para converter tipos lógicos nos respetivos tipos correspondentes (comoTIMESTAMP
) em vez de usar apenas os respetivos tipos não processados (comoINTEGER
). O valor predefinido é falso.
bq mk
Crie recursos do BigQuery, como tabelas incorporadas ou tabelas externas, que precisam de partição e agrupamento configurados. Também pode usar o comando bq mk
para gerar uma tabela do BigQuery diretamente a partir da análise de copybooks COBOL com a flag --schema_from_copybook
.
Sinopse
bq mk [options]
Sinalizações e argumentos
O comando bq mk
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a usar para executar este comando.
--tablespec
=TABLE- Especifique a tabela de destino dos dados. O formato suportado é [PROJECT]:[DATASET].[TABLE].
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especifiquem os campos a usar para o agrupamento de tabelas.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados predefinido a usar com o comando. Pode definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver em falta, é usado o projeto predefinido.
--description
=DESCRIPTION- (Opcional) Introduza uma descrição para o conjunto de dados ou a tabela.
--dry_run
- (Opcional) Imprima a declaração da linguagem de definição de dados (LDD) da tabela.
--encoding
=ENCODING- (Opcional) Especifique o conjunto de carateres a usar para codificar e descodificar campos de carateres. Quando especificado, este valor substitui o valor predefinido definido pela variável de ambiente
ENCODING
. --expiration
=EXPIRATION- (Opcional) Especifique a duração da tabela. Se não especificar um valor, o BigQuery cria a tabela com o tempo de vida predefinido da tabela do conjunto de dados ou a tabela não expira.
--external_table_definition
ou-e
=TABLE- (Opcional) Especifique um nome e uma definição de esquema para criar uma tabela externa. Exemplo:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/.
--help
ou-h
- Apresentar este texto de ajuda.
--location
=LOCATION- (Opcional) Especifique uma região ou uma localização multirregional para executar o comando. O valor predefinido é US.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor predefinido éauto
. --require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como verdadeiro. Este argumento aplica-se apenas a tabelas particionadas e se a flag
--time_partitioning_field
estiver definida como verdadeira. O valor predefinido é True. --schema
=SCHEMA- (Opcional) Especifique o caminho para um ficheiro de esquema JSON local ou uma lista separada por vírgulas de definições de colunas no formato FIELD:DATA_TYPE, FIELD:DATA_TYPE e assim sucessivamente.
--schema_from_copybook
=SCHEMA- (Opcional) Gere o esquema a partir de um copybook.
--table
ou-t
=TABLE- (Opcional) Crie uma tabela.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada no tempo deve ser eliminada, em segundos. O tempo de expiração é avaliado como a data UTC da partição mais o valor especificado. Se fornecer um número negativo, a partição baseada no tempo nunca expira.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada no tempo. Se a partição baseada no tempo estiver ativada sem este valor, a tabela é particionada com base na hora de carregamento.
--view
- (Opcional) Crie uma visualização de propriedade.
bq query
Executar uma consulta do BigQuery.
Sinopse
bq query [options]
Sinalizações e argumentos
Pode executar este comando nos modos local e remoto. Para o modo remoto, consulte as flags --remoteHost
, --remotePort
e --remoteUrl
, e a variável de ambiente BQ_QUERY_REMOTE_EXECUTION
.
O comando bq query
usa as seguintes flags e argumentos:
--project_id
=ID- Especifique o projeto a usar para executar este comando.
--allow_large_results
- (Opcional) Use tamanhos de tabelas de destino grandes para consultas SQL antigas.
--append_table
- (Opcional) Anexe os dados carregados aos dados existentes na tabela de destino.
--batch
- (Opcional) Execute a consulta no modo de lote.
--clustering_fields
=FIELDS- (Opcional) Especifique uma lista separada por vírgulas de até quatro nomes de colunas que especifiquem os campos a usar para o agrupamento em tabelas. Se especificar este valor com a partição, a tabela é primeiro particionada e, em seguida, cada partição é agrupada usando as colunas fornecidas.
--create_if_needed
- (Opcional) Crie a tabela de destino se não existir.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados predefinido a usar com o comando. Pode definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver em falta, é usado o projeto predefinido.
--destination_table
=TABLE- (Opcional) Especifique a tabela de destino na qual quer escrever os resultados da consulta.
--dry_run
- (Opcional) Valide a consulta sem a executar.
--follow
={true|false}- (Opcional) Para acompanhar os passos de consulta individuais ou o script como um todo, defina como verdadeiro. O valor predefinido é false.
--help
ou-h
- Apresentar este texto de ajuda.
--location
=LOCATION- (Opcional) Especifique uma região ou uma localização multirregional para executar o comando. O valor predefinido é US.
--maximum_bytes_billed
=BYTES- (Opcional) Especifique o limite de bytes faturados para a consulta.
--parameters
=PARAMETERS- (Opcional) Especifique parâmetros de consulta separados por vírgulas no formato [NAME]:[TYPE]:[VALUE]. Um nome vazio cria um parâmetro posicional. Pode omitir [TYPE] para assumir um valor
STRING
no formato name::value ou ::value.NULL
produz um valor nulo. --query_dsn
=DSN- (Opcional) Especifique o DSN a partir do qual a consulta deve ser lida, no formato HLQ.MEMBER ou HLQ.PDS(MEMBER). Se
query_dsn
não for fornecido, é usado QUERY DD. --remoteHost
=HOST- (Opcional) Especifique o endereço IP do anfitrião remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remotePort
=PORT- (Opcional) Especifique a porta remota. O valor predefinido é 51770. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar a consulta no modo remoto, defina a variável de ambiente
BQ_QUERY_REMOTE_EXECUTION
. --replace
- (Opcional) Substitua a tabela de destino pelos resultados da consulta.
--report_row_limit
=LIMIT- (Opcional) Especifique o número máximo de linhas a imprimir no relatório de auditoria. O valor predefinido é 30.
--require_partition_filter
={true|false}- (Opcional) Para ter um filtro de partição para consultas na tabela fornecida, defina como verdadeiro. O valor predefinido é True.
--schema_update_option
=OPTION- (Opcional) Atualize o esquema da tabela de destino quando acrescentar dados. Use os seguintes valores:
ALLOW_FIELD_ADDITION
: permite adicionar novos campos.ALLOW_FIELD_RELAXATION
: permite relaxar os camposREQUIRED
paraNULLABLE
.
--split_sql
={true|false}- (Opcional) Para dividir o script SQL de entrada em consultas individuais, defina como verdadeiro. O valor predefinido é True.
--stats_table
=TABLE- (Opcional) Especifique a tabela na qual inserir estatísticas.
--sync
={true|false}- (Opcional) Execute o comando no modo síncrono.
--synchronous_mode
={true|false}- (Opcional) Uma alternativa a
--sync
. --timeOutMinutes
=MINUTES- (Opcional) Especifique o limite de tempo em minutos para uma resposta de tarefa do BigQuery. O valor predefinido é de 240 minutos.
--time_partitioning_expiration
=SECONDS- (Opcional) Especifique quando uma partição baseada no tempo deve ser eliminada, em segundos. O tempo de expiração é avaliado como a data UTC da partição mais o valor especificado. Se fornecer um número negativo, a partição baseada no tempo nunca expira.
--time_partitioning_field
=FIELD- (Opcional) Especifique o campo usado para determinar como criar uma partição baseada no tempo. Se a partição baseada no tempo estiver ativada sem este valor, a tabela é particionada com base na hora de carregamento.
--time_partitioning_type
=TYPE- (Opcional) Ative a partição baseada no tempo numa tabela e defina o tipo de partição com um dos seguintes valores:
DAY
,HOUR
,MONTH
,YEAR
. --use_cache
={true|false}- (Opcional) Para colocar os resultados da consulta em cache, defina como verdadeiro. O valor predefinido é True.
--use_legacy_sql
- (Opcional) Use o SQL antigo em vez do SQL padrão.
cloud run job cancel
Cancele a execução de uma tarefa específica.
Sinopse
cloud run job cancel [-h] --project=PROJECT --region=REGION EXECUTION
Sinalizações e argumentos
O comando cloud run job cancel
usa as seguintes flags e argumentos:
- EXECUTION
- Especifique o nome do ID de execução da tarefa do Cloud Run.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- Especifique a região onde o recurso pode ser encontrado.
cloud run job execute
Executar uma tarefa específica.
Sinopse
cloud run job execute [-h] [--async] [--tail-logs] [--wait] [--dump-execution-id=EXECUTION-ID] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--task-timeout=TIMEOUT] [--args=ARGS]... [--update-env-vars=ENVVARS]... JOB
Sinalizações e argumentos
O comando cloud run job execute
usa as seguintes flags e argumentos:
- JOB
- Especifique o nome da tarefa do Cloud Run a executar.
--args
=ARGS- (Opcional) Argumentos separados por vírgulas transmitidos ao comando executado pela imagem do contentor. Se forem fornecidos, é criada uma execução com os valores de entrada.
--async
- (Opcional) Especifique esta flag se quiser regressar imediatamente, sem esperar que a operação em curso seja concluída.
--dump-execution-id
=EXECUTION-ID : DataPath- (Opcional) Especifique o ficheiro no qual escrever o ID de execução.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--polling-interval
=POLLINGINTERVAL- (Opcional) Define o intervalo de sondagem para apresentar registos quando
--tail_logs
está ativado. O valor predefinido é 60 s. --project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- Especifique a região onde o recurso pode ser encontrado.
--tail-logs
- (Opcional) Se executar o comando no modo síncrono especificando a flag
--tail_logs
, o Mainframe Connector apresenta os registos de progresso no ecrã. Se especificar os indicadores--tail_logs
e--async
, é apresentada uma mensagem de erro. Como o Cloud Logging não suporta o registo em tempo real, o comando apenas apresenta registos que já foram gravados nos registos. Como resultado, alguns registos podem estar em falta quando usa a flag--tail_logs
. Para ver os registos de tarefas completos, use o comandocloud run job log
após a conclusão da tarefa. --task-timeout
=TIMEOUT- (Opcional) Apresenta o tempo máximo existente (prazo) durante o qual uma tentativa de tarefa de trabalho pode ser executada. Se não for especificado, é usado o valor predefinido da tarefa.
--update-env-vars
=ENVVARS- (Opcional) Lista de pares de chave-valor a definir como substituições de variáveis de ambiente para uma execução de uma tarefa.
--wait
- (Opcional) Especifique esta flag se quiser que o comando aguarde até que a execução termine antes de sair.
cloud run job log
Apresente registos do Cloud Run
Sinopse
cloud run job log [-h] [--tail] [--log-filter=FILTER] [--polling-interval=POLLINGINTERVAL] --project=PROJECT --region=REGION [--timeout=TIMEOUT] EXECUTION_ID
Sinalizações e argumentos
O comando cloud run job log
usa as seguintes flags e argumentos:
- EXECUTION_ID
- O nome do ID de execução da tarefa do Cloud Run.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--log-filter
=FILTER- (Opcional) Expressão de filtro que especifica as entradas de registo a devolver.
--polling-interval
=POLLINGINTERVAL- (Opcional) Define o intervalo de sondagem para apresentar registos quando
--tail_logs
está ativado. O valor predefinido é 60 s. --project
=PROJECT- Especifique o ID do projeto.
--region
=REGION- Especifique a região onde o recurso pode ser encontrado.
--tail
- (Opcional) Apresenta apenas novos registos a partir de agora quando definido. Se não for definido, são apresentados todos os registos de tarefas.
--timeout
=TIMEOUT- (Opcional) Tempo limite após o qual o comando é terminado. Se não for definido, o comando vai expirar quando a execução terminar.
copy text
Copiar conjunto de dados de texto.
Sinopse
copy text [-h] [--buffer-size=BUFFERSIZE] INPUT OUTPUT
Sinalizações e argumentos
O comando copy text
usa as seguintes flags e argumentos:
- INPUT : DataPath
- Especifique o caminho dos dados do ficheiro de entrada que quer copiar.
- OUTPUT : DataPath
- Especifique o caminho dos dados do ficheiro de saída que quer copiar e codificar.
--buffer-size
=BUFFERSIZE : DataSize- (Opcional) Indique o tamanho de leitura da memória para cada carregamento em massa. O valor predefinido é 64 MiB.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
gsutil cp
Transcodificar dados do seu mainframe para um contentor do Cloud Storage.
Sinopse
gsutil cp [options] gcsUri [dest]
Sinalizações e argumentos
Pode usar este comando para os seguintes fins diferentes:
- Copie e transcodifique um ficheiro de um mainframe ou de um ambiente Linux para o Cloud Storage.
- Origem:
--inDSN
. Se não for fornecido, é especificado por DD INFILE. - Destino:
gcsUri
- Copie e transcodifique um ficheiro no Cloud Storage
- Fonte:
gcsUri
- Destino:
--destPath
- Copie um ficheiro do Cloud Storage para um mainframe.
- Fonte:
gcsUri
- Destino:
--destDSN
- Sinalizadores relevantes:
--lrecl
,--blksize
,--recfm
e--noseek
. - Copie um ficheiro do Cloud Storage para um ambiente Linux.
- Fonte:
gcsUri
- Destino:
--destPath
--remote
, --remoteHost
, --remotePort
e --remoteUrl
.
O comando gsutil cp
usa as seguintes flags e argumentos:
- dest
- (Opcional) O caminho local ou o nome da origem de dados (DSN). Formatos de exemplo:
/path/to/file
, DATASET.MEMBER - gcsUri
- O URI do Cloud Storage no formato
gs://bucket/path
. Pode representar a localização de origem e de destino, consoante a utilização. --batchSize
=SIZE- (Opcional) Especifique os blocos a usar por lote. O valor predefinido é 1000.
--blksize
=SIZE- (Opcional) Especifique o tamanho do bloco do ficheiro a copiar para o mainframe. Se
blksize=0
erecfm
não for U, o sistema de mainframe determina o tamanho do bloco ideal para o ficheiro. --cobDsn
=DSN- (Opcional) Especifique o DSN do livro de cópias que quer usar. Se não fornecer um valor, o Mainframe Connector lê a partir de DD COPYBOOK.
--connections
=NUMBER- (Opcional) Especifique o número de ligações que podem ser feitas ao recetor remoto. O valor predefinido é 10.
--dataset_id
=ID- (Opcional) Especifique o conjunto de dados predefinido a usar com o comando. Pode definir o valor como [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] estiver em falta, é usado o projeto predefinido.
--destDSN
=OUTPUT- (Opcional) Especifique o DSN de destino.
--destPath
=OUTPUT- (Opcional) Especifique o caminho de destino.
--dry_run
- (Opcional) Teste a análise e a descodificação do livro de cópias do ficheiro QSAM.
--encoding
=ENCODING- (Opcional) Especifique o conjunto de carateres a usar para codificar e descodificar campos de carateres. Quando especificado, este valor substitui o valor predefinido definido pela variável de ambiente
ENCODING
. --help
ou-h
- Apresentar este texto de ajuda.
--inDsn
=DSN- (Opcional) Especifique o DSN no ficheiro que quer usar. Se não fornecer um valor, o Mainframe Connector lê a partir de DD INFILE.
--keepAliveTimeInSeconds
=SECONDS- (Opcional) Especifique o tempo limite de manutenção ativo em segundos para um canal HTTP. O valor predefinido é 480 segundos.
--location
=LOCATION- (Opcional) Especifique uma região ou uma localização multirregional para executar o comando. O valor predefinido é US.
--lowerCaseColumnNames
- (Opcional) Crie nomes de colunas em minúsculas para campos de registo.
--lrecl
=LRECL- (Opcional) Especifique o comprimento do registo lógico (lrecl) do ficheiro que quer copiar para o mainframe.
--maxChunkSize
=SIZE- (Opcional) Especifique o tamanho máximo do fragmento por lote. Deve usar K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB ou TB para descrever o tamanho. O valor predefinido é 128 MiB.
--max_error_pct
=PCT- (Opcional) Especifique o limite de falhas de tarefas para erros de descodificação de linhas. Os valores válidos estão no intervalo [0,0, 1,0]. O valor predefinido é 0.
--noseek
- (Opcional) Melhore o desempenho da transferência do Cloud Storage para o mainframe.
--parallel
ou-m
- (Opcional) Defina o número de escritores simultâneos como 4.
--parallelism
ou-p
=NUMBER- (Opcional) Especifique o número de escritores simultâneos. O valor predefinido é 4.
--parser_type
=TYPE- (Opcional) Defina o analisador de configuração como
legacy
,copybook
ouauto
. O valor predefinido éauto
. --preload_chunk_count
=NUMBER- (Opcional) Especifique o número de blocos a pré-carregar dos discos enquanto todos os trabalhadores estão ocupados. O valor predefinido é 2.
--project_id
=ID- (Opcional) Especifique o projeto a usar para executar este comando.
--recfm
=REFCM- (Opcional) Especifique o recfm do ficheiro que quer copiar para o mainframe. Pode usar um dos seguintes valores: F, FB, V, VB, U. O valor predefinido é FB.
--remote
- (Opcional) Use um descodificador remoto.
--remoteHost
=HOST- (Opcional) Especifique o endereço IP do anfitrião remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remotePort
=PORT- (Opcional) Especifique a porta remota a usar. O valor predefinido é 51770. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --remoteUrl
=URL- (Opcional) Especifique o URL remoto. Para executar o Mainframe Connector no modo remoto, defina a flag
--remote
. --replace
- (Opcional) Elimine o destino recursivamente antes de carregar.
--stats_table
=TABLE- (Opcional) Especifique a tabela na qual inserir estatísticas.
--tfDSN
=DSN- (Opcional) Especifique as transformações a partir de um DSN, DATASET.MEMBER ou PDS(MBR).
--tfGCS
=GCS- (Opcional) Especifique o ficheiro de transformações do Cloud Storage.
--timeOutMinutes
=MINUTES- (Opcional) Especifique o limite de tempo em minutos para uma chamada grpc remota. O valor predefinido é de 90 minutos para o Cloud Storage e de 50 minutos para um mainframe.
gsutil rm
Remover objetos do Cloud Storage.
Sinopse
gsutil rm [-hR] URL...
Sinalizações e argumentos
O comando gsutil rm
usa as seguintes flags e argumentos:
- URL
- Especifique a localização do Cloud Storage no formato
gs://bucket/prefix
. --help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
-R
ou-r
- (Opcional) Elimine recursivamente o conteúdo de diretórios ou objetos que correspondam à expressão de caminho. Não gera um erro se o diretório ou o objeto não existir.
pubsub topics publish
Publicar uma mensagem num tópico Pub/Sub.
Este comando permite-lhe enviar dados de mensagens diretamente através da flag --data
ou através de um ficheiro com a flag --data-path
. Também pode incluir atributos, uma chave de ordenação e aplicar propriedades de mensagens. Além disso, pode aplicar substituições de strings dinâmicas ao conteúdo da mensagem.
Sinopse
pubsub topics publish [-h] [--data=DATA] [--data-path=DATAPATH] [--ordering-key=ORDERING-KEY] [--attributes=NAME=VALUE[, NAME=VALUE...]]... [--message-property=KEY=VALUE]... [--substitution=KEY=VALUE]... TOPIC
Sinalizações e argumentos
O comando pubsub topics publish
usa as seguintes flags e argumentos:
- TOPIC
- Especifique o nome do tópico no formato
projects/{project}/topics/{topic}
. --attributes
=NAME=VALUE- (Opcional) Especifique uma lista de atributos separados por vírgulas. Cada ATTRIBUTE tem o formato
name=value
. Pode especificar até 100 atributos. Para ver uma lista completa das diretrizes de atributos, consulte o artigo Use atributos para publicar uma mensagem. --data-path
=DATAPATH : DataPath- (Opcional) Especifique o caminho para o ficheiro que contém os dados da mensagem. Tem de definir um dos indicadores
--data
ou--data-path
, mas não ambos. Para mais informações sobre a formatação de mensagens e os limites de tamanho, consulte o artigo Publicar mensagens em tópicos. --data
=DATA- (Opcional) Especifique o corpo da mensagem que quer publicar no nome do tópico indicado. Tem de definir um dos indicadores
--data
ou--data-path
, mas não ambos. Para mais informações sobre a formatação de mensagens e os limites de tamanho, consulte o artigo Publicar mensagens em tópicos. --help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--message-property
=KEY=VALUE- (Opcional) Especifique as propriedades a aplicar à mensagem. Uma chave de propriedade válida é
encoding
. Esta chave de propriedade especifica a codificação de carateres a usar para a string de mensagem. A string de mensagem é convertida em bytes através desta codificação antes de ser enviada para o tópico do Pub/Sub. Para ver uma lista dos valores de codificação suportados, consulte o artigo Codificações suportadas. A predefinição éUTF-8
. --ordering-key
=ORDERING-KEY- (Opcional) Especifique a chave para a entrega ordenada de mensagens aos subscritores. Todas as mensagens com a mesma chave de ordenação são enviadas aos subscritores pela ordem em que o Pub/Sub as recebe.
--substitution
=KEY=VALUE(Opcional) Usando
--data
ou--data-path
, especifique os pares de chave-valor a usar para a substituição dinâmica a aplicar nos dados da mensagem do Pub/Sub. O conetor de mainframe analisa os dados das mensagens em busca de marcadores de posição e substitui-os pelos respetivos valores. Defina os marcadores de posição nos dados através da sintaxe ${KEY}, por exemplo, ${NAME}. Especifique cada substituição como um par de chave-valor usando o formatoKEY=VALUE
. Pode especificar várias substituições repetindo a opção:--substitution key1=value1 --substitution key2=value2
.Por exemplo, se os dados de entrada forem:
Hello, ${username}!
e usar--substitution username=World
, a mensagem enviada para o Pub/Sub será:Hello, World!
.
qsam decode
Descodifique dados QSAM.
Este comando descodifica registos de um ficheiro QSAM para o formato especificado através do argumento --output-format
. O ficheiro QSAM original é dividido em partes com base no valor especificado com o argumento --max-chunk-size
. O resultado transcodificado é guardado no caminho de destino como ficheiros ordenados lexicograficamente.
Sinopse
qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE] --copybook=COPYBOOK [--max-error-percent=MAX_ERROR_PERCENT] [--output-format=FORMAT] [--parallelism=COUNT] [--preload-chunk-count=PRELOAD_CHUNK_COUNT] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Sinalizações e argumentos
O comando qsam decode
usa as seguintes flags e argumentos:
- INPUT : DataPath
- Especifique o caminho dos dados do ficheiro QSAM que quer descodificar.
- OUTPUT : DataPath
- Especifique o caminho de dados do prefixo de saída. Todas as saídas são armazenadas sob este prefixo.
--chunk-size
=CHUNK-SIZE : DataSize- (Opcional) Especifique a quantidade de dados de entrada a incluir em cada ficheiro de saída. O ficheiro de saída pode ser maior ou menor. O tamanho do fragmento é arredondado para baixo para o múltiplo mais próximo do comprimento do registo lógico. O valor predefinido é 128 MiB.
--copybook
=COPYBOOK : DataPath- Especifique o caminho dos dados do ficheiro que contém o copybook.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--input-parameter
=KEY=VALUE(Opcional) Especifique parâmetros para configurar a entrada. Cada parâmetro é definido como
KEY=VALUE
. As chaves de parâmetros de entrada suportadas são as seguintes:csv-dialect
: configura a análise CSV. O valor é umDataPath
que aponta para um ficheiro de configuração CSV.json-dialect
: configura a análise de JSON. O valor é umDataPath
que aponta para um ficheiro de configuração JSON.pubsub-publish-configuration
: configura as mensagens que são enviadas para o Pub/Sub. O valor é umDataPath
que aponta para um ficheiro de configuração do Pub/Sub.output-prefix
: adicionar um prefixo aos ficheiros de saída.
--max-error-percent
=MAX_ERROR_PERCENT(Opcional) Especifique a percentagem de registos processados que podem ter erros antes de o processo de transcodificação falhar. O valor pode variar entre 0,0 (falhar se existirem erros de transcodificação) e 1,0 (não falhar se existirem erros de transcodificação). O valor predefinido é 0.
--output-format
=FORMAT : TranscodeFormat(Opcional) Especifique o formato do ficheiro de saída. Se fornecer o
DataPath
de um tópico do Pub/Sub como o valor deOUTPUT
, o formato de saída predefinido éJSONL
. Para todos os outrosDataPaths
, o formato de saída predefinido éORC
.--parallelism
=COUNT(Opcional) Especifique o número de threads de processamento. O valor deve ser igual ou inferior ao número de núcleos disponíveis. O valor predefinido é 1.
--preload-chunk-count
=PRELOAD_CHUNK_COUNT(Opcional) Especifique o número de blocos de dados a pré-carregar quando todos os threads estiverem a ser processados. O valor predefinido é 1.
--replace
(Opcional) Se especificado, elimina o caminho de saída recursivamente antes de escrever os resultados da descodificação.
--transcode-configuration
=CONFIG : DataPath(Opcional) Especifique o ficheiro que contém a configuração de transcodificação. Para mais informações sobre o formato de configuração do transcodificador, consulte o artigo Configuração do transcodificador.
qsam encode
Codifique dados QSAM.
Este comando obtém dados de uma origem externa e converte-os num ficheiro QSAM. A entrada é definida pelo valor especificado através do argumento --input-format
.
Sinopse
qsam encode [-h] --copybook=COPYBOOK --input-format=FORMAT [--input-stream-count=COUNT] [--parallelism=COUNT] [--spillover=SPILLOVER] [--transcode-configuration=CONFIG] [--input-parameter=KEY=VALUE]... INPUT OUTPUT
Sinalizações e argumentos
O comando qsam encode
usa as seguintes flags e argumentos:
- INPUT : DataPath
- Especifique o caminho dos dados do ficheiro de entrada que quer codificar num ficheiro QSAM.
- OUTPUT : DataPath
- Especifique o caminho dos dados do ficheiro QSAM para o qual quer codificar.
--copybook
=COPYBOOK : DataPath- Especifique o caminho dos dados do ficheiro que contém o copybook.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--input-format
=FORMAT : TranscodeInputFormat- Especifique o formato da entrada.
--input-parameter
=KEY=VALUE(Opcional) Especifique parâmetros para configurar a entrada. Cada parâmetro é definido como
KEY=VALUE
. As chaves de parâmetros de entrada suportadas são as seguintes:csv-dialect
: configura a análise CSV. O valor é umDataPath
que aponta para um ficheiro de configuração CSV.json-dialect
: configura a análise de JSON. O valor é umDataPath
que aponta para um ficheiro de configuração JSON.
--input-stream-count
=COUNT(Opcional) Especifique o número de streams de entrada. Este é um valor máximo. Na realidade, podem ser usados menos streams. O valor predefinido é 1.
--parallelism
=COUNT(Opcional) Especifique o número de threads de processamento. O valor deve ser igual ou inferior ao número de núcleos disponíveis. O valor predefinido é 1.
--spillover
=SPILLOVER : DataPath(Opcional) Especifique um caminho de dados para o conjunto de dados de transbordo. Se não especificar estas informações, os detalhes do erro são rejeitados.
--transcode-configuration
=CONFIG : DataPath(Opcional) Especifique o ficheiro que contém a configuração de transcodificação. Para mais informações sobre o formato de configuração do transcodificador, consulte o artigo Configuração do transcodificador.
scp
Copie ficheiros para o Cloud Storage.
Sinopse
scp [options] [input] [output]
Sinalizações e argumentos
Para usar este comando, tem de garantir o seguinte:
- Defina um valor de entrada único através de
input
,--inDD
ou--inDsn
. - Defina um valor de saída único através da saída ou de
--gcsOutUri
.
O comando scp
usa as seguintes flags e argumentos:
- input
- (Opcional) Especifique o DD ou o DSN a copiar. Em alternativa, pode usar
--inDD
ou--inDsn
. - output
- (Opcional) Especifique o URI da saída através do formato gs://[BUCKET]/[PREFIX]. Em alternativa, pode usar
--gcsOutUri
. --compress
- (Opcional) Comprima a saída com gzip.
--count
ou-n
=RECORDS- (Opcional) Especifique o número de registos a copiar. A predefinição é ilimitada.
--encoding
=ENCODING- (Opcional) Especifique a codificação de carateres de entrada. O valor predefinido é CP037.
--gcsOutUri
=URI- (Opcional) Especifique o URI do Cloud Storage de destino da cópia do ficheiro.
--help
ou-h
- Apresentar este texto de ajuda.
--inDD
=INPUT- (Opcional) Especifique o ficheiro DD a copiar. O valor predefinido é DD INFILE.
--inDsn
=INPUT- (Opcional) Especifique o DSN a copiar.
--noConvert
- (Opcional) Desative a conversão da entrada de carateres para ASCII. A conversão de carateres está ativada por predefinição.
systemreport
Forneça o relatório do sistema.
Sinopse
systemreport [-h] [--available_security_providers] [--supported_ciphers]
Sinalizações e argumentos
O comando systemreport
usa as seguintes flags e argumentos:
--available_security_providers
- (Opcional) Imprima fornecedores de segurança suportados.
--help
ou-h
- (Opcional) Apresente esta mensagem de ajuda.
--supported_ciphers
- (Opcional) Imprima as cifras suportadas.
Tipos de parâmetros
Estes são os tipos comuns usados nos comandos do conetor de mainframe.
DataPath
DataPath
é uma string que representa uma entrada ou uma saída. Cada tipo DataPath
tem o seu próprio prefixo e argumentos, da seguinte forma:
DD:
- Os caminhos de dados com este prefixo apontam para uma declaração de definição de dados (DD) quando executados num trabalho de linguagem de controlo de trabalhos (JCL). Pode alterar a codificação DD adicionandoencoding=
ao DD. Por exemplo,DD:DDNAME
ouDD:DDNAME?encoding=UTF-8
. A codificação DD predefinida é a codificação do SO predefinida.DSN:
: os caminhos de dados com este prefixo apontam para um nome da origem de dados (DSN) quando executados num mainframe. Pode alterar a codificação do DSN adicionandoencoding=
ao DSN. Por exemplo,DSN:HQ.FOO.BAR
ouDSN:HQ.FOO.BAR?encoding=cp037
.file:
– Os caminhos de dados com este prefixo apontam para um ficheiro Unix. Pode especificar o seguinte no ficheiro Unix:- O comprimento do registo lógico (LRECL) adicionando
#lrecl
antes de:
. - O formato de registo (RECFM) adicionando
&recfm
antes de:
. O RECFM predefinido éF
. - A codificação adicionando
&encoding
antes de:
. A codificação predefinida éUTF-8
.
Por exemplo,
file:/path/to/file
,file?80:/path/to/file
,file?80&recfm=FB:/path/to/file
oufile?80&recfm=FB&encoding=cp037:/path/to/file
.- O comprimento do registo lógico (LRECL) adicionando
gs://
: os caminhos de dados com este prefixo apontam para um ficheiro no Cloud Storage. Pode especificar o seguinte no ficheiro:- O LRECL adicionando
?lrecl=lrecl
após o prefixo do contentor. - O RECFM adicionando
?recfm=recfm
após o prefixo do contentor. O RECFM predefinido éF
. - A codificação adicionando
?encoding=
após o prefixo do contentor. A codificação predefinida éUTF-8
.
Por exemplo,
gs://my_bucket/my/file.txt
,gs://my_bucket/my/file.txt?encoding=cp037
,gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037
ougs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=recfm
.- O LRECL adicionando
pubsub:
– Os caminhos de dados com este prefixo apontam para um recurso do Pub/Sub. Por exemplo,pubsub:projects/projectId/topics/topicId
.
Para ficheiros do Cloud Storage ou Unix, se o RECFM estiver definido como V
, o Mainframe Connector lê e escreve os ficheiros no formato zzLL da seguinte forma:
- Os dois primeiros bytes são sempre 0x0000.
- Os dois bytes subsequentes representam o tamanho dos dados.
- Os bytes restantes constituem os dados do registo reais.
DataSize
DataSize
representa um tamanho sob a forma de um valor e uma unidade de medida, por exemplo, 5 MiB. Pode usar um espaço entre o valor e a magnitude. A análise da dimensão dos dados não é sensível a maiúsculas e minúsculas, pelo que pode especificar unidades de medida em maiúsculas e minúsculas.
Pode especificar o valor nos seguintes formatos:
- Formato Java: b/k/m/g/t, respetivamente, para byte, kibibyte, mebibyte, gibibyte e tebibyte.
- Formato internacional: KiB/MiB/GiB/TiB, respetivamente, para kibibyte, mebibyte, gibibyte e tebibyte.
- Formato da métrica: b/kb/mb/gb/tb, para kilobyte, megabyte, gigabyte e terabyte, respetivamente.
TranscodeFormat
TranscodeFormat
representa o formato a usar durante o processo de transcodificação.
Os valores válidos são:
ORC
:ORC
é um formato de ficheiro colunar com reconhecimento de tipo autodescritivo.CSV
:CSV
é um formato de texto simples que armazena dados tabulares com cada linha a representar uma linha. Pode especificar os parâmetros CSV através do parâmetro de entradacsv-dialect
. Pode defini-lo como--input-parameter csv-dialect=
DataPath, em que DataPath aponta para a localização destes parâmetros.JSONL
:JSONL
é um formato de texto simples que armazena dados tabulares com cada linha a representar uma linha. Pode especificar os parâmetros JSON através do parâmetro de entradajson-dialect
. Pode defini-lo como--input-parameter json-dialect=
DataPath, em que DataPath aponta para a localização destes parâmetros.
TranscodeInputFormat
O formato a usar durante a transcodificação.
Os valores válidos são:
BIGQUERY
: extrai dados diretamente do BigQuery.INPUT
tem de ser um caminho para um ficheiro de consulta.Os parâmetros de entrada disponíveis são:
keep_order
- Use se a ordem exata dos registos for importante. Tenha em atenção que isto limita o fluxo de entrada.project_id
- ID do projeto a usar quando executar a tarefa.location
– Localização a usar quando executar a tarefa.
CSV
:CSV
é um formato de texto simples que armazena dados tabulares com cada linha a representar uma linha. Pode especificar os parâmetros CSV através do parâmetro de entradacsv-dialect
. Pode defini-lo como--input-parameter csv-dialect=
DataPath, em que DataPath aponta para a localização destes parâmetros.JSONL
:JSONL
é um formato de texto simples que armazena dados tabulares com cada linha a representar uma linha. Pode especificar os parâmetros JSON através do parâmetro de entradajson-dialect
. Pode defini-lo como--input-parameter json-dialect=
DataPath, em que DataPath aponta para a localização destes parâmetros.