Referência da ferramenta de linha de comando bq

Neste documento, você encontra detalhes sobre os comandos e sinalizadores da ferramenta de linha de comando bq. Para informações sobre como usar a CLI, consulte Como usar a ferramenta de linha de comando bq.

Sinalizadores globais

Você pode usar os seguintes sinalizadores globais com a ferramenta de linha de comando bq.

[OBSOLETO] Sinalizadores de autorização do bq

O uso dos sinalizadores de autorização do bq foi suspenso. Para configurar a autorização para a ferramenta de linha de comando bq, consulte Como autorizar ferramentas do Cloud SDK.

--application_default_credential_file

Para mais informações, consulte Como configurar a autenticação para aplicativos de produção de servidor para servidor. O valor padrão é ''.

--credential_file

O nome do arquivo usado para armazenar seu token OAuth. O valor padrão é $HOME/.bigquery.v2.token.

--service_account

Use este endereço de e-mail da conta de serviço para autorização. Por exemplo: 1234567890@developer.gserviceaccount.com. O valor padrão é ''.

--service_account_credential_file

O arquivo usado como armazenamento de credenciais para contas de serviço. Será necessário definir esse sinalizador se você estiver usando uma conta de serviço.

--service_account_private_key_file

O arquivo que contém a chave particular da conta de serviço. Este sinalizador será necessário se o sinalizador --service_account for especificado. O valor padrão é ''.

--service_account_private_key_password

A senha da chave privada. A senha precisa corresponder à que você definiu na chave ao criá-la. O valor padrão é notasecret.

--use_gce_service_account

Especifique esse sinalizador para usar credenciais de conta de serviço em vez de credenciais armazenadas ao executar uma instância do Google Compute Engine. Para mais informações, consulte Como criar e ativar contas de serviço para instâncias. O valor padrão é false.

Sinalizadores globais do bq

--api

O ponto de extremidade da API a ser chamada. O valor padrão é https://www.googleapis.com.

--api_version

A versão da API a ser usada. O padrão é v2.

--apilog

Registre todas as solicitações e respostas da API no arquivo especificado por esse sinalizador. Você também pode usar stdout e stderr. A especificação da string vazia ('') será direcionada para stdout.

--bigqueryrc

O caminho para o arquivo de configuração da ferramenta de linha de comando. O arquivo de configuração especifica novos padrões para qualquer sinalizador e, para ser substituído, basta especificar o sinalizador na linha de comando. Se o sinalizador --bigqueryrc não for especificado, a variável de ambiente BIGQUERYRC será usada. Se isso não for especificado, o caminho ~/.bigqueryrc será usado. O valor padrão é $HOME/.bigqueryrc.

--ca_certificates_file

O local do seu arquivo de certificado de CA. O valor padrão é ''.

--dataset_id

O conjunto de dados padrão a ser usado para solicitações. Este sinalizador é ignorado quando não aplicável. Você pode definir o valor para [PROJECT_ID]:[DATASET] ou [DATASET]. Se [PROJECT_ID] não estiver presente, o projeto padrão será usado. Para substituir essa configuração, especifique o sinalizador --project_id. O valor padrão é ''.

--debug_mode

Mostrar rastreamentos em exceções do Python. O valor padrão é false.

--disable_ssl_validation

Desativa a validação do certificado HTTPS. O valor padrão é false.

--discovery_file

O nome do arquivo JSON a ser lido para descoberta. O valor padrão é ''.

--enable_gdrive

Quando definido como true, um novo token OAuth com escopo do GDrive é solicitado. Quando definido como false, um novo token OAuth sem o escopo do GDrive é solicitado.

--fingerprint_job_id

Se precisa usar um código do job que é derivado de uma impressão digital da configuração do job. Isso impedirá que o mesmo job seja executado várias vezes acidentalmente. O valor padrão é false.

--format

Especifica o formato da saída do comando. As opções incluem:

  • pretty: saída de tabela formatada
  • sparse: saída de tabela mais simples
  • prettyjson: formato JSON fácil de ler
  • json: JSON maximamente compacto
  • csv: formato csv com cabeçalho

pretty, sparse e prettyjson foram desenvolvidos para ser legíveis por humanos. json e csv são para transmissão a outro programa. Se none for especificado, o comando não produzirá saída. Se o sinalizador --format não estiver presente, um formato de saída apropriado é escolhido com base no comando.

--headless

Especifica se precisa executar a sessão bq sem interação do usuário. Quando definido como true, a interação é desativada. Por exemplo, debug_mode não entrará no depurador e a frequência da impressão informativa será reduzida. O valor padrão é false.

--job_id

O código do job exclusivo a ser usado para a solicitação. Se não for especificado em uma solicitação de criação de job, será gerado um código. Esse sinalizador se aplica apenas aos comandos que criam jobs: cp, extract, load e query. Para mais informações, consulte Como gerar um código de job.

--job_property

Um par adicional de chave-valor a ser incluído no campo de propriedades da configuração do job. Repita este sinalizador para especificar outras propriedades.

--location

Uma string correspondente à sua região ou multirregião. O sinalizador de local é compatível com os seguintes comandos. Todos os outros comandos ignoram o sinalizador --location.

Se o conjunto de dados tiver sido criado na multirregião US ou EU, o sinalizador --location será opcional para esses comandos.

--max_rows_per_request

Um número inteiro que especifica o número máximo de linhas a serem retornadas por leitura.

--project_id

O código do projeto a ser usado para solicitações. O valor padrão é ''.

--proxy_address

O nome ou endereço IP do host proxy a ser usado para conexão com o GCP. O valor padrão é ''.

--proxy_password

A senha a ser usada ao autenticar com o host proxy. O valor padrão é ''.

--proxy_port

O número da porta a ser usado para se conectar ao host proxy. O valor padrão é ''.

--proxy_username

O nome de usuário a ser usado ao autenticar com o host proxy. O valor padrão é ''.

--quiet ou -q

Se definido como true, ignore as atualizações de status enquanto as tarefas estiverem em execução. O valor padrão é false.

--synchronous_mode ou -sync

Se configurado como true, aguarde a conclusão do comando antes de retornar e use o status de conclusão do job como o código de erro. Se configurado como false, o job será criado e o status de conclusão bem-sucedida será usado para o código de erro. O valor padrão é true.

--trace

Um token de rastreamento especificado como token:[TOKEN] para incluir nas solicitações da API.

Sinalizadores específicos de comando

Você pode usar os seguintes sinalizadores de comando na ferramenta de linha de comando bq.

bq cancel

O comando cancel é usado para cancelar jobs. O comando cancel não tem sinalizadores específicos do comando.

Para mais informações sobre como usar o comando cancel, consulte Como cancelar jobs.

O comando cancel usa os seguintes sinalizadores globais.

--job_id

O código do job exclusivo a ser usado para a solicitação de cancelamento. Você pode especificar o código do job sem usar o sinalizador --job_id. Por exemplo: bq cancel [JOB_ID].

--synchronous_mode ou --sync

Quando especificado, aguarde a conclusão do comando antes de retornar. Se configurado como false, o comando retornará imediatamente. O valor padrão é true.

bq cp

O comando cp é usado para copiar tabelas. O comando cp usa os seguintes sinalizadores específicos de comando.

Para mais informações sobre como usar o comando cp, consulte Como copiar tabelas.

--append_table ou -a

Quando especificado, copie uma tabela e a anexe a uma tabela existente. O valor padrão é false.

--destination_kms_key

A chave do Cloud KMS usada para criptografia dos dados da tabela de destino.

--force ou -f

Quando especificado, se a tabela de destino existir, sobrescreva-a e não solicite. O valor padrão é false.

--no_clobber ou -n

Quando especificado, se a tabela de destino existir, não a sobrescreva. O valor padrão é false.

bq extract

O comando extract é usado para exportar dados da tabela para o Google Cloud Storage.

Para mais informações sobre como usar o comando extract, consulte Como exportar dados da tabela.

O comando extract usa os seguintes sinalizadores específicos de comando.

--compression

O tipo de compactação a ser usado para arquivos exportados. Os valores possíveis incluem GZIP (somente CSV e JSON), DEFLATE (somente Avro), SNAPPY (apenas Avro) e NONE. O valor padrão é NONE.

--destination_format

O formato dos dados exportados. Os possíveis valores incluem:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO

O valor padrão é CSV.

--field_delimiter ou -F

O caractere que indica o separador de colunas no arquivo de saída para exportações de CSV. \t e tab são permitidos como delimitadores de tabulação.

--print_header

Quando especificado, esse objeto imprime linhas de cabeçalho para formatos que tenham cabeçalhos. O valor padrão é true.

bq head

O comando head exibe linhas em uma tabela.

Para mais informações sobre como usar o comando head, consulte Como navegar pelos dados da tabela.

O comando head usa os seguintes sinalizadores específicos de comando.

--job ou -j

Especifique esse sinalizador com um código de job válido para ler os resultados de um job de consulta. O valor padrão é false.

--max_rows ou -n

Um número inteiro indicando o número de linhas a serem impressas ao mostrar dados da tabela. O valor padrão é 100.

--selected_fields ou -c

Uma lista separada por vírgula que indica um subconjunto de campos (incluindo campos aninhados e repetidos) para retornar ao mostrar dados da tabela. Se não for especificado, todas as colunas serão recuperadas.

--start_row ou -s

Um número inteiro indicando o número de linhas a serem ignoradas antes de mostrar os dados da tabela. O valor padrão é 0 (começa na primeira linha).

--table ou -t

Especifique esse sinalizador com um código de tabela para ler linhas de uma tabela. O valor padrão é false.

bq insert

O comando insert permite que você insira linhas de dados formatados do JSON delimitados por nova linha usando o buffer de streaming. Este comando é usado apenas para testes. Para transmitir dados para o BigQuery, use o método de API insertAll.

Para mais informações, consulte Como transmitir dados para o BigQuery.

O comando insert usa os seguintes sinalizadores específicos de comando.

--ignore_unknown_values ou -i

Quando especificado, ignora valores em uma linha que não estejam presentes no esquema da tabela.

--skip_invalid_rows ou -s

Quando especificado, tenta inserir qualquer linha válida, mesmo que haja linhas inválidas.

--template_suffix ou -x

Quando especificado, trata a tabela de destino como um modelo base e insere as linhas em uma tabela de instâncias denominada {destination}{templateSuffix}. O BigQuery gerencia a criação da tabela de instâncias usando o esquema do modelo base.

bq load

O comando load carrega dados em uma tabela.

Para mais informações sobre como carregar dados do Google Cloud Storage usando o comando load, consulte:

Para mais informações sobre como carregar dados de uma fonte local usando o comando load, consulte Como carregar dados no BigQuery de uma fonte de dados local.

O comando load usa os seguintes sinalizadores específicos de comando.

--allow_jagged_rows

Quando especificado, permite a falta de colunas opcionais no final em dados CSV.

--allow_quoted_newlines

Quando especificado, permite novas linhas entre aspas em dados CSV.

--autodetect

Quando especificado, ativa a detecção automática de esquema para dados CSV e JSON.

--destination_kms_key

A chave do Cloud KMS para criptografia dos dados da tabela de destino.

--encoding ou -E

A codificação de caracteres usada nos dados. Os possíveis valores incluem: + ISO-8859-1 (também conhecido como Latin-1) + UTF-8

--field_delimiter ou -F

O caractere que indica o limite entre colunas nos dados. \t e tab são permitidos como delimitadores de tabulação.

--ignore_unknown_values

Quando especificado, permite e ignora outros valores não reconhecidos em dados CSV ou JSON.

--max_bad_records

Um número inteiro que especifica o número máximo de registros inválidos permitidos antes que todo o job falhe. O valor padrão é 0.

--null_marker

Uma string personalizada opcional que representa um valor NULL em dados CSV.

--projection_fields

Se usado com --source_format definido como DATASTORE_BACKUP, indica quais propriedades da entidade serão carregadas de uma exportação do Cloud Datastore como uma lista separada por vírgulas. Nomes de propriedades diferenciam maiúsculas e minúsculas e precisam se referir às propriedades de nível superior. O valor padrão é ''. Esse sinalizador também pode ser usado com exportações do Cloud Firestore.

--quote

O caractere de aspas a ser usado antes e depois dos registros. O valor padrão é " que indica nenhum caractere de aspas.

--replace

Quando especificado, apague o conteúdo existente antes de carregar novos dados. O valor padrão é false.

--schema

O caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE].

--schema_update_option

Ao anexar dados a uma tabela (em um job de carga ou consulta), ou ao substituir uma partição de tabela, especifica como atualizar o esquema da tabela de destino. Os possíveis valores incluem:

  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE

Repita este sinalizador para especificar várias opções de atualização de esquema.

--skip_leading_rows

Um número inteiro que especifica a quantidade de linhas a ignorar no início do arquivo de origem.

--source_format

O formato dos dados de origem. Os possíveis valores incluem:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO
  • DATASTORE_BACKUP
  • PARQUET (experimental)

--time_partitioning_expiration

Um número inteiro que especifica (em segundos) quando uma partição baseada em tempo precisa ser excluída. O tempo de expiração é o tempo de criação mais o valor de expiração. Um número negativo indica que não há expiração.

--time_partitioning_field

O campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.

--time_partitioning_type

Ativa o particionamento baseado em tempo em uma tabela e define o tipo de partição. Atualmente, o único valor possível é DAY que gera uma partição por dia.

bq ls

O comando ls lista objetos em uma coleção.

Para mais informações sobre como usar o comando ls, consulte:

O comando ls usa os seguintes sinalizadores específicos de comando.

--all ou -a

Quando especificado, mostra todos os resultados: jobs de todos os usuários ou todos os conjuntos de dados (incluindo os ocultos). Esse sinalizador não é necessário ao listar configurações ou execuções de transferência.

--datasets ou -d

Quando especificado, liste os conjuntos de dados. O valor padrão é false.

--filter

Conjuntos de dados de listas que correspondem à expressão do filtro. Use uma lista de chaves e valores de rótulo, separada por espaço e no formato labels.[KEY]:[VALUE]. Para configurações de transferência, uma expressão de filtro no formato dataSourceIds:[DATA_SOURCES] lista configurações de transferência para fontes de dados especificadas. Os possíveis valores incluem:

  • adwords
  • dcm_dt (DoubleClick Campaign Manager)
  • dfp_dt (DoubleClick for Publishers)
  • youtube_channel
  • youtube_content_owner

Também usado para execuções de transferência, uma expressão de filtro no formato states:[STATE] lista as execuções de transferência com os estados especificados. Os valores possíveis incluem: + SUCCEEDED + FAILED + PENDING + RUNNING + CANCELLED

--jobs ou -j

Quando especificado, liste os jobs. O valor padrão é false.

--max_results ou -n

Um número inteiro indicando a quantidade máxima de resultados.

--message_type

Para listar mensagens de registro de execução de transferência de um tipo específico, especifique messageTypes:[MESSAGE_TYPE]. Os possíveis valores incluem:

  • INFO
  • WARNING
  • ERROR

--page_token ou -k

Quando especificado, lista os itens a partir deste token da página.

--projects ou -p

Quando especificado, mostra todos os projetos. O valor padrão é false.

--run_attempt

Defina este sinalizador como LATEST para listar apenas as últimas execuções para uma transferência.

--transfer_config

Quando especificado, lista as configurações de transferência. Ao usar esse sinalizador, você também precisa especificar --transfer_location. O valor padrão é false.

--transfer_location

Lista as configurações de transferência no local especificado. O local de transferência é definido quando ela é criada.

--transfer_log

Quando especificado, liste as mensagens do registro de transferência para a execução especificada. O valor padrão é false.

--transfer_run

Quando especificado, lista as execuções de transferência. O valor padrão é false.

bq mk

O comando mk cria uma configuração de conjunto de dados, tabela, visualização ou transferência.

Para mais informações sobre como usar o comando mk com o BigQuery, consulte:

Para mais informações sobre como usar o comando mk com o serviço de transferência de dados do BigQuery, consulte:

O comando mk usa os seguintes sinalizadores específicos de comando.

--clustering_fields

Uma lista separada por vírgulas com nomes de colunas usada para armazenar uma tabela em cluster. No momento, esse sinalizador está disponível apenas para tabelas particionadas. Quando especificado, a tabela é particionada e armazenada em cluster usando as colunas mencionadas.

--data_location

(Legado) Especifica o local do conjunto de dados. Use o sinalizador global --location em vez disso.

--data_source

Especifica a fonte de dados para uma configuração de transferência. Os possíveis valores incluem:

  • adwords
  • dcm_dt (DoubleClick Campaign Manager)
  • dfp_dt (DoubleClick for Publishers)
  • youtube_channel
  • youtube_content_owner

O valor padrão é ''.

--dataset ou -d

Quando especificado, cria um conjunto de dados. O valor padrão é false.

--default_table_expiration

Um número inteiro que especifica o tempo de vida padrão, em segundos, para tabelas recém-criadas em um conjunto de dados. O tempo de expiração é definido para a hora atual mais esse valor.

--description

A descrição do conjunto de dados ou tabela.

--destination_kms_key

A chave do Cloud KMS usada para criptografar os dados da tabela.

--display_name

O nome de exibição da configuração de transferência. O valor padrão é ''.

--end_time

Um carimbo de data/hora que especifica o horário final para um intervalo de execuções de transferência. O formato é RFC3339 UTC "Zulu".

--expiration

Um número inteiro que especifica o tempo de expiração da tabela ou da visualização. O tempo de expiração é definido para a hora atual mais esse valor.

--external_table_definition

Especifica uma definição de tabela usada para criar uma tabela externa. O valor pode ser uma definição de tabela in-line ou um caminho para um arquivo que contém uma definição de tabela JSON. O formato de uma definição in-line é schema@format=uri.

--force ou -f

Quando especificado, ignora erros already exists e sobrescreve a tabela sem avisar. O valor padrão é false.

--label

Um rótulo para colocar na mesa. O formato é [KEY]:[VALUE]. Repita este sinalizador para especificar vários rótulos.

--params ou -p

Os parâmetros para uma configuração de transferência no formato JSON: {"[PARAMETER]":"[VALUE]"}. Os parâmetros variam dependendo da fonte de dados. Para mais informações, consulte Introdução ao serviço de transferência de dados do BigQuery.

--refresh_window_days

Um número inteiro que especifica a janela de atualização para uma configuração de transferência em dias. O valor padrão é 0.

--require_partition_filter

Quando especificado, esse sinalizador determina se um filtro de partição é necessário para consultas na tabela fornecida. Esse sinalizador só se aplica a tabelas particionadas. O valor padrão é true.

--schema

O caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE]. O valor padrão é ''.

--start_time

Um carimbo de data/hora que especifica o horário de início para um intervalo de execuções de transferência. O formato é RFC3339 UTC "Zulu".

--table ou -t

Quando especificado, cria uma tabela. O valor padrão é false.

--target_dataset

O conjunto de dados de destino para uma configuração de transferência. O valor padrão é ''.

--time_partitioning_expiration

Um número inteiro que especifica (em segundos) quando uma partição baseada em tempo precisa ser excluída. O tempo de expiração é o tempo de criação mais o valor de expiração. Um número negativo indica que não há expiração.

--time_partitioning_field

O campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.

--time_partitioning_type

Ativa o particionamento baseado em tempo em uma tabela e define o tipo de partição. Atualmente, o único valor possível é DAY que gera uma partição por dia.

--transfer_config

Quando especificado, cria uma configuração de transferência.

--transfer_run

Quando especificado, cria execuções de transferência para um intervalo de tempo. O valor padrão é false.

--use_legacy_sql

Quando definido como false, usa uma consulta SQL padrão para criar uma exibição. O valor padrão é true (usa SQL legado).

--view

Quando especificado, cria uma exibição. O valor padrão é ''.

--view_udf_resource

O URI do Cloud Storage ou o caminho para um arquivo de código local que é carregado e avaliado imediatamente como um recurso de função definido pelo usuário usado pela consulta SQL de uma visualização. Repita o sinalizador para especificar vários arquivos.

bq mkdef

O comando mkdef cria uma definição de tabela no formato JSON para dados armazenados no Google Cloud Storage ou no Google Drive.

Para mais informações sobre como usar o comando mkdef, consulte Como criar um arquivo de definição de tabela para uma fonte de dados externa.

O comando mkdef usa os seguintes sinalizadores específicos de comando.

--autodetect

Quando especificado, use a detecção automática de esquema para dados CSV e JSON.

--source_format

O formato dos dados de origem. Os valores possíveis incluem: + CSV + NEWLINE_DELIMITED_JSON + AVRO + DATASTORE_BACKUP + GOOGLE_SHEETS

O valor padrão é CSV.

bq partition

O comando partition é usado para converter tabelas nominais de datas (terminando em [YYYYmmdd]) em tabelas particionadas.

Para mais informações sobre como usar o comando partition, consulte Como converter tabelas com dados fracionados em tabelas particionadas por ingestão de tempo.

O comando partition usa os seguintes sinalizadores específicos de comando.

--no_clobber ou -n

Quando especificado, não substitui uma partição existente. O valor padrão é false.

--time_partitioning_expiration

Um número inteiro que especifica (em segundos) quando uma partição baseada em tempo precisa ser excluída. O tempo de expiração é o tempo de criação mais o valor de expiração. Um número negativo indica que não há expiração.

--time_partitioning_type

Ativa o particionamento baseado em tempo em uma tabela e define o tipo de partição. Atualmente, o único valor possível é DAY que gera uma partição por dia.

bq query

O comando query cria um job de consulta que executa a consulta SQL fornecida.

Para mais informações sobre como usar o comando query, consulte Como executar consultas interativas e em lote.

O comando query usa os seguintes sinalizadores específicos de comando.

--allow_large_results

Quando especificado, ativa tamanhos de tabela de destino grandes para consultas SQL legadas.

--append_table

Quando especificado, acrescenta dados a uma tabela de destino. O valor padrão é false.

--batch

Quando especificado, executa a consulta no modo em lote. O valor padrão é false.

--clustering_fields

Se especificado, uma lista de colunas separadas por vírgula é usada para agrupar a tabela de destino em uma consulta. Esse sinalizador precisa ser usado com os sinalizadores de particionamento de tempo para criar uma tabela particionada por tempo de ingestão ou uma tabela particionada em uma coluna DATE ou TIMESTAMP. Quando especificado, a tabela é particionada e, em seguida, armazenada em cluster usando as colunas fornecidas.

--destination_kms_key

A chave do Cloud KMS usada para criptografar os dados da tabela de destino.

--destination_schema

O caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE]. O valor padrão é ''.

--destination_table

O nome da tabela de destino para gravar os resultados da consulta. O valor padrão é ''.

--dry_run

Quando especificado, a consulta é validada, mas não executada.

--external_table_definition

O nome da tabela e a definição de esquema usada em uma consulta de tabela externa. O esquema pode ser um caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE]. O formato para fornecer o nome e o esquema da tabela é: [TABLE]::[PATH_TO_FILE] ou [TABLE]::[SCHEMA]@[SOURCE_FORMAT]=[CLOUD_STORAGE_URI]. Repita este sinalizador para consultar várias tabelas.

--flatten_results

Quando especificado, padroniza campos aninhados e repetidos nos resultados de consultas SQL legadas. O valor padrão é true.

--label

Um rótulo para aplicar a um job de consulta no formato [KEY]:[VALUE]. Repita este sinalizador para especificar vários rótulos.

--max_rows ou -n

Um número inteiro que especifica o número de linhas a retornar nos resultados da consulta. O valor padrão é 100.

--maximum_bytes_billed

Um número inteiro que limita os bytes faturados pela consulta. Se a consulta ultrapassar o limite, ela falhará (sem incorrer em cobranças). Se não especificado, os bytes faturados são definidos como o padrão do projeto.

--min_completion_ratio

[Experimental] Um número entre 0 e 1,0 que especifica a fração mínima de dados que precisam ser verificados antes que uma consulta seja retornada. Se não definido, o valor do servidor padrão 1.0 será usado.

--parameter

Um arquivo JSON contendo uma lista de parâmetros de consulta ou um parâmetro de consulta no formulário [NAME]:[TYPE]:[VALUE]. Um nome vazio gera um parâmetro de posição. [TYPE] pode ser omitido para assumir um valor STRING no formato: name::value ou ::value. NULL produz um valor nulo. Repita este sinalizador para especificar vários parâmetros.

--replace

Se especificado, substitui a tabela de destino pelos resultados da consulta. O valor padrão é false.

--require_cache

Se especificado, executa a consulta apenas se os resultados puderem ser recuperados a partir do cache.

--require_partition_filter

Se especificado, requer um filtro de partição para consultas sobre a tabela fornecida. Esse sinalizador só pode ser usado com uma tabela particionada.

--rpc

Se especificado, usa a API de consulta no estilo rpc em vez do método jobs.insert da API REST. O valor padrão é false.

--schema_update_option

Ao anexar dados a uma tabela (em um job de carga ou consulta), ou ao substituir uma partição de tabela, especifica como atualizar o esquema da tabela de destino. Os possíveis valores incluem:

  • ALLOW_FIELD_ADDITION: permite que novos campos sejam adicionados
  • ALLOW_FIELD_RELAXATION: permite o relaxamento de campos REQUIRED para NULLABLE

Repita este sinalizador para especificar várias opções de atualização de esquema.

--start_row ou -s

Um número inteiro que especifica a primeira linha a retornar no resultado da consulta. O valor padrão é 0.

--time_partitioning_expiration

Um número inteiro que especifica (em segundos) quando uma partição baseada em tempo precisa ser excluída. O tempo de expiração é o tempo de criação mais o valor de expiração. Um número negativo indica que não há expiração.

--time_partitioning_field

O campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.

--time_partitioning_type

Ativa o particionamento baseado em tempo em uma tabela e define o tipo de partição. Atualmente, o único valor possível é DAY que gera uma partição por dia.

--udf_resource

O URI do Cloud Storage ou o caminho para um arquivo de código local que é carregado e avaliado imediatamente como um recurso de função definido pelo usuário usado por uma consulta SQL. Repita o sinalizador para especificar vários arquivos.

--use_cache

Quando especificado, armazena em cache os resultados da consulta. O valor padrão é true.

--use_legacy_sql

Quando definido como false, executa uma consulta SQL padrão. O valor padrão é true (usa SQL legado).

bq rm

O comando rm exclui uma configuração de conjunto de dados, tabela, visualização ou transferência.

Para mais informações sobre como usar o comando rm, consulte:

O comando rm usa os seguintes sinalizadores específicos de comando.

--dataset ou -d

Quando especificado, exclui um conjunto de dados. O valor padrão é false.

--force ou -f

Quando especificado, exclui uma tabela, visualização ou conjunto de dados sem solicitação. O valor padrão é false.

--recursive ou -r

Quando especificado, exclui um conjunto de dados e quaisquer tabelas (e dados da tabela) nele. O valor padrão é false.

--table ou -t

Quando especificado, exclui uma tabela. O valor padrão é false.

--transfer_config

Quando especificado, exclui uma configuração de transferência. O valor padrão é false.

bq show

O comando show exibe informações sobre um objeto.

Para mais informações sobre como usar o comando show, consulte:

O comando show usa os seguintes sinalizadores específicos de comando.

--dataset ou -d

Quando especificado, exibe informações sobre um conjunto de dados. O valor padrão é false.

--encryption_service_account

Quando especificado, exibe a conta de serviço para um usuário se existir, ou cria uma, se necessário. O valor padrão é false.

--job ou -j

Se especificado, mostra informações sobre um job. O valor padrão é false.

--schema

Quando especificado, exibe apenas o esquema da tabela. O valor padrão é false.

--transfer_config

Quando especificado, exibe informações sobre uma configuração de transferência. O valor padrão é false.

--transfer_run

Quando especificado, exibe informações sobre uma execução de transferência. O valor padrão é false.

--view

Quando especificado, exibe informações sobre uma exibição. O valor padrão é false.

bq update

O comando update atualiza uma configuração de conjunto de dados, tabela, visualização ou transferência.

Para mais informações sobre como usar o comando update, consulte:

O comando update usa os seguintes sinalizadores específicos de comando.

--clear_label

Remove um rótulo usando o formato [KEY]:. Repete a sinalização para remover vários rótulos.

--dataset ou -d

Atualiza um conjunto de dados. O valor padrão é false.

--default_table_expiration

Um número inteiro que atualiza a duração padrão, em segundos, para tabelas recém-criadas em um conjunto de dados. O tempo de expiração é definido para a hora atual mais esse valor. Especifica 0 para remover a expiração existente.

--description

Atualiza a descrição de um conjunto de dados, tabela ou visualização.

--display_name

Atualiza o nome de exibição para uma configuração de transferência. O valor padrão é ''.

--etag

Atualiza os recursos somente se houver correspondência do etag.

--expiration

Um número inteiro que atualiza o tempo de expiração em segundos para uma tabela ou exibição. Especificar 0 remove o tempo de expiração.

--external_table_definition

Atualiza uma tabela externa com a definição de tabela especificada. O esquema pode ser um caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE]. O formato para fornecer o nome e o esquema da tabela é: [TABLE]::[PATH_TO_FILE] ou [TABLE]::[SCHEMA]@[SOURCE_FORMAT]=[CLOUD_STORAGE_URI].

--params ou -p

Atualiza parâmetros para uma configuração de transferência no formato JSON: {"[PARAMETER]":"[VALUE]"}. Os parâmetros variam dependendo da fonte de dados. Para mais informações, consulte Introdução ao serviço de transferência de dados do BigQuery.

--refresh_window_days

Um número inteiro que especifica uma janela atualizada (em dias) para uma configuração de transferência.

--schema

O caminho para um arquivo de esquema JSON local ou uma lista separada por vírgula de definições de coluna no formato [FIELD]:[DATA_TYPE],[FIELD]:[DATA_TYPE]. O valor padrão é ''.

--set_label

Um rótulo para atualização no formato [KEY]:[VALUE]. Repita este sinalizador para atualizar vários rótulos.

--source

O caminho para o arquivo JSON local que contém um payload usado para atualizar um recurso.

--table ou -t

Quando especificado, atualiza uma tabela. O valor padrão é false.

--target_dataset

Quando especificado, atualiza o conjunto de dados de destino para uma configuração de transferência. O valor padrão é ''.

--time_partitioning_expiration

Um número inteiro que atualiza (em segundos) quando uma partição baseada em tempo precisa ser excluída. O tempo de expiração é o tempo de criação mais o valor de expiração. Um número negativo indica que não há expiração.

--time_partitioning_field

Atualiza o campo usado para determinar como criar uma partição baseada em tempo. Se o particionamento baseado em tempo estiver ativado sem esse valor, a tabela será particionada com base no tempo de carregamento.

--time_partitioning_type

Atualiza o tipo de particionamento baseado em tempo para uma tabela. Atualmente, o único valor possível é DAY que gera uma partição por dia.

--transfer_config

Quando especificado, atualiza uma configuração de transferência. O valor padrão é false.

--update_credentials

Quando especificado, atualiza as credenciais de configuração de transferência. O valor padrão é false.

--use_legacy_sql

Quando definido como false, atualiza a consulta SQL para uma exibição do SQL legado para o SQL padrão. O valor padrão é true (usa SQL legado).

--view

Quando especificado, atualiza a consulta SQL para uma exibição. O valor padrão é ''.

--view_udf_resource

Atualiza o URI do Cloud Storage ou o caminho para um arquivo de código local que é carregado e avaliado imediatamente como um recurso de função definido pelo usuário na consulta SQL de uma visualização. Repita o sinalizador para especificar vários arquivos.

bq wait

O comando wait aguarda alguns segundos para que um job seja concluído.

O comando wait usa o sinalizador global --job_id e os seguintes sinalizadores específicos do comando.

[INTEGER]

[INTEGER]:
Um valor inteiro maior ou igual a 0 que especifica o tempo de espera. Esse valor não é um sinalizador: você especifica o número inteiro na linha de comando. Se você digitar 0, o comando pesquisará pela conclusão do job e retornará imediatamente. Se você não especificar um valor inteiro, o comando aguardará para sempre.

--fail_on_error

Quando especificado, após o tempo de espera decorrido, ocorrerá um erro se o job ainda estiver em execução ou terminar em falha. O valor padrão é true.

--wait_for_status

Quando especificado, aguarde um determinado status do job antes de sair. Os possíveis valores incluem:

  • PENDING
  • RUNNING
  • DONE

O valor padrão é DONE.

Esta página foi útil? Conte sua opinião sobre:

Enviar comentários sobre…

Precisa de ajuda? Acesse nossa página de suporte.