Instruções de linguagem de definição de dados (DDL) no SQL padrão

Com as instruções de linguagem de definição de dados (DDL, na sigla em inglês), é possível criar e modificar recursos do BigQuery usando a sintaxe de consulta do SQL padrão. Atualmente, você pode usar comandos DDL no BigQuery para:

Permissões necessárias

Todos os usuários exigem a permissão bigquery.jobs.create para criar um job e executar instruções DDL. Cada tipo de instrução DDL também requer permissões específicas para ser executado. Esta seção descreve quais papéis do Identity and Access Management (IAM, na sigla em inglês) fornecem essas permissões e as permissões necessárias para cada tipo de instrução.

Papéis IAM

Os papéis predefinidos bigquery.user, bigquery.jobUser e bigquery.admin do IAM incluem a permissão bigquery.jobs.create necessária.

Os papéis bigquery.admin e bigquery.dataOwner incluem todas as outras permissões necessárias para executar instruções DDL. O papel bigquery.dataEditor inclui algumas das permissões necessárias, como mostrado na tabela na próxima seção.

Para mais informações sobre os papéis do IAM no BigQuery, consulte Papéis e permissões predefinidos ou a Referência de permissões do IAM.

Permissões para executar instruções DDL

Diferentes tipos de instruções DDL exigem permissões distintas para serem executados, conforme mostrado na tabela a seguir:

instrução SQL Permissões Papéis IAM Detalhes da permissão
CREATE EXTERNAL TABLE bigquery.tables.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões da tabela
CREATE FUNCTION bigquery.routines.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
CREATE MATERIALIZED VIEW bigquery.tables.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões de visualização materializada
CREATE PROCEDURE bigquery.routines.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
CREATE SCHEMA bigquery.datasets.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões do conjunto de dados
CREATE TABLE bigquery.tables.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões da tabela
CREATE VIEW bigquery.tables.create bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Ver permissões
ALTER COLUMN
DROP NOT NULL
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões da tabela
ALTER COLUMN
SET OPTIONS
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões da tabela
ALTER MATERIALIZED VIEW
SET OPTIONS
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões de visualização materializada
ALTER SCHEMA
SET OPTIONS
bigquery.datasets.get
bigquery.datasets.update
bigquery.admin
bigquery.dataOwner
Permissões de atualização do conjunto de dados
ALTER TABLE
ADD COLUMN
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Como gerenciar permissões de tabela
ALTER TABLE
RENAME TO
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Como gerenciar permissões de tabela
ALTER TABLE
SET OPTIONS
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Como gerenciar permissões de tabela
ALTER TABLE
DROP COLUMN
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Como gerenciar permissões de tabela
ALTER VIEW
SET OPTIONS
bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Como gerenciar permissões de tabela
DROP EXTERNAL TABLE bigquery.tables.delete
bigquery.tables.get
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Liberar permissões de tabela
DROP FUNCTION bigquery.routines.delete bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
DROP MATERIALIZED VIEW bigquery.tables.delete
bigquery.tables.get
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Permissões de visualização materializada
DROP PROCEDURE bigquery.routines.delete
bigquery.routines.get
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
DROP SCHEMA bigquery.datasets.delete
bigquery.tables.delete
*

* Não é necessário para o esquema vazio.
bigquery.admin
bigquery.dataOwner
Abandonar permissões de esquema
DROP TABLE bigquery.tables.delete
bigquery.tables.get
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Liberar permissões de tabela
DROP VIEW bigquery.tables.get
bigquery.tables.update
bigquery.admin
bigquery.dataEditor
bigquery.dataOwner
Liberar permissões de tabela

Como executar instruções DDL

É possível executar instruções DDL usando o Console do Cloud, com a ferramenta de linha de comando bq, chamando a API REST jobs.query ou de maneira programática, usando as bibliotecas de cliente da API BigQuery.

Console

  1. Acesse a página do BigQuery no Console do Cloud.

    Ir para o BigQuery

  2. Clique em Escrever nova consulta.

    Escrever nova consulta.

  3. Insira a instrução DDL na área de texto do Editor de consultas. Por exemplo:

     CREATE TABLE mydataset.newtable ( x INT64 )
     

  4. Clique em Executar.

bq

Digite o comando bq query e forneça a instrução DDL como o parâmetro de consulta. Defina a sinalização use_legacy_sql como false.

bq query --use_legacy_sql=false \
  'CREATE TABLE mydataset.newtable ( x INT64 )'

API

Chame o método jobs.query e forneça a instrução DDL na propriedade query do corpo da solicitação.

A funcionalidade DDL amplia as informações retornadas por um recurso de jobs. statistics.query.statementType inclui estes outros valores para compatibilidade com DDL:

  • CREATE_TABLE
  • CREATE_TABLE_AS_SELECT
  • DROP_TABLE
  • CREATE_VIEW
  • DROP_VIEW

statistics.query tem dois campos extras:

  • ddlOperationPerformed: a operação DDL realizada, possivelmente dependente da existência do destino DDL. Os valores atuais incluem:
    • CREATE: a consulta criou o destino DDL.
    • SKIP: exemplos de ambiente autônomo: CREATE TABLE IF NOT EXISTS foi enviado e a tabela existe. Ou DROP TABLE IF EXISTS foi enviado e a tabela não existe.
    • REPLACE: a consulta substituiu o destino DDL. Exemplo: CREATE OR REPLACE TABLE foi enviado e a tabela já existe.
    • DROP: a consulta excluiu o destino DDL.
  • ddlTargetTable: quando você envia uma instrução CREATE TABLE/VIEW ou DROP TABLE/VIEW, a tabela de destino é retornada como um objeto com três campos:
    • "projectId": string
    • "datasetId": string
    • "tableId": string

Java

Chame o método BigQuery.create() para iniciar um job de consulta. Chame o Job.waitFor() para aguardar a conclusão da consulta DDL.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.QueryJobConfiguration;

// Sample to create a view using DDL
public class DDLCreateView {

  public static void runDDLCreateView() {
    // TODO(developer): Replace these variables before running the sample.
    String projectId = "MY_PROJECT_ID";
    String datasetId = "MY_DATASET_ID";
    String tableId = "MY_VIEW_ID";
    String ddl =
        "CREATE VIEW "
            + "`"
            + projectId
            + "."
            + datasetId
            + "."
            + tableId
            + "`"
            + " OPTIONS("
            + " expiration_timestamp=TIMESTAMP_ADD("
            + " CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),"
            + " friendly_name=\"new_view\","
            + " description=\"a view that expires in 2 days\","
            + " labels=[(\"org_unit\", \"development\")]"
            + " )"
            + " AS SELECT name, state, year, number"
            + " FROM `bigquery-public-data.usa_names.usa_1910_current`"
            + " WHERE state LIKE 'W%'`";
    ddlCreateView(ddl);
  }

  public static void ddlCreateView(String ddl) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      QueryJobConfiguration config = QueryJobConfiguration.newBuilder(ddl).build();

      // create a view using query and it will wait to complete job.
      Job job = bigquery.create(JobInfo.of(config));
      job = job.waitFor();
      if (job.isDone()) {
        System.out.println("View created successfully");
      } else {
        System.out.println("View was not created");
      }
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("View was not created. \n" + e.toString());
    }
  }
}

Node.js

// Import the Google Cloud client library and create a client
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function ddlCreateView() {
  // Creates a view via a DDL query

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const projectId = "my_project"
  // const datasetId = "my_dataset"
  // const tableId = "my_new_view"

  const query = `
  CREATE VIEW \`${projectId}.${datasetId}.${tableId}\`
  OPTIONS(
      expiration_timestamp=TIMESTAMP_ADD(
          CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
      friendly_name="new_view",
      description="a view that expires in 2 days",
      labels=[("org_unit", "development")]
  )
  AS SELECT name, state, year, number
      FROM \`bigquery-public-data.usa_names.usa_1910_current\`
      WHERE state LIKE 'W%'`;

  // For all options, see https://cloud.google.com/bigquery/docs/reference/rest/v2/jobs/query
  const options = {
    query: query,
  };

  // Run the query as a job
  const [job] = await bigquery.createQueryJob(options);

  job.on('complete', metadata => {
    console.log(`Created new view ${tableId} via job ${metadata.id}`);
  });
}

Python

Chame o método Client.query() para iniciar um job de consulta. Chame o QueryJob.result() para aguardar a conclusão da consulta DDL.

# from google.cloud import bigquery
# project = 'my-project'
# dataset_id = 'my_dataset'
# table_id = 'new_view'
# client = bigquery.Client(project=project)

sql = """
CREATE VIEW `{}.{}.{}`
OPTIONS(
    expiration_timestamp=TIMESTAMP_ADD(
        CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
    friendly_name="new_view",
    description="a view that expires in 2 days",
    labels=[("org_unit", "development")]
)
AS SELECT name, state, year, number
    FROM `bigquery-public-data.usa_names.usa_1910_current`
    WHERE state LIKE 'W%'
""".format(
    project, dataset_id, table_id
)

job = client.query(sql)  # API request.
job.result()  # Waits for the query to finish.

print(
    'Created new view "{}.{}.{}".'.format(
        job.destination.project,
        job.destination.dataset_id,
        job.destination.table_id,
    )
)

Instrução CREATE SCHEMA

Cria um conjunto de dados.

O conjunto de dados é criado no local especificado nas configurações da consulta. Para mais informações, consulte Como especificar seu local.

Para mais informações sobre como criar um conjunto de dados, consulte Como criar conjuntos de dados. Para informações sobre cotas, consulte Limites do conjunto de dados.

CREATE SCHEMA [IF NOT EXISTS]
[project_name.]dataset_name
[OPTIONS(schema_option_list)]

Em que:

  • IF NOT EXISTS: se você incluir essa cláusula e o conjunto de dados já existir, a instrução será bem-sucedida sem ação. Se você omitir essa cláusula e o conjunto de dados já existir, a instrução retornará um erro.
  • project_name é o nome do projeto onde você está criando o conjunto de dados. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados a ser criado.

  • schema_option_list especifica uma lista de opções para criar o conjunto de dados.

schema_option_list

A lista de opções especifica opções para o conjunto de dados. Especifique as opções no seguinte formato: NAME=VALUE, ...

As seguintes opções são compatíveis:

NAME VALUE Detalhes
default_kms_key_name STRING Especifica a chave padrão do Cloud KMS para criptografar dados da tabela neste conjunto de dados. É possível modificar esse valor ao criar uma tabela.
default_partition_expiration_days FLOAT64 Especifica o prazo de validade padrão, em dias, para partições de tabela nesse conjunto de dados. É possível modificar esse valor ao criar uma tabela.
default_table_expiration_days FLOAT64 Especifica o prazo de validade padrão, em dias, das tabelas neste conjunto de dados. É possível modificar esse valor ao criar uma tabela.
description STRING A descrição do conjunto de dados.
friendly_name STRING Um nome descritivo do conjunto de dados.
labels <ARRAY<STRUCT<STRING, STRING>>> Uma matriz de rótulos para o conjunto de dados, expressa como pares de chave-valor.
location STRING O local em que o conjunto de dados será criado. Se você não especificar essa opção, o conjunto de dados será criado no local em que a consulta será executada. Se você especificar essa opção e também definir explicitamente o local do job de consulta, os dois valores precisam corresponder; caso contrário, a consulta falhará.

Exemplos

O exemplo a seguir cria um conjunto de dados com uma validade de tabela padrão e um conjunto de rótulos.

CREATE SCHEMA mydataset
OPTIONS(
  location="us",
  default_table_expiration_days=3.75,
  labels=[("label1","value1"),("label2","value2")]
  )

Instrução CREATE TABLE

Para criar uma tabela no BigQuery, use a instrução DDL CREATE TABLE.

CREATE [ OR REPLACE ] [ TEMP | TEMPORARY ] TABLE [ IF NOT EXISTS ]
[[project_name.]dataset_name.]table_name
[(
  column[, ...]
)]
[PARTITION BY partition_expression]
[CLUSTER BY clustering_column_list]
[OPTIONS(table_option_list)]
[AS query_statement]

Em que:

  • IF NOT EXISTS: cria uma nova tabela somente se a tabela não existir no conjunto de dados especificado. Não pode aparecer com OR REPLACE.

  • TEMP | TEMPORARY: cria uma tabela temporária. Para mais informações, consulte Tabelas temporárias.

  • OR REPLACE: substitui qualquer função com o mesmo nome, se houver. Não pode aparecer com IF NOT EXISTS.

Nas instruções CREATE TABLE, siga estas regras:

  • Apenas uma instrução CREATE é permitida.
  • A lista de colunas, a cláusula as query_statement ou ambas precisam estar presentes.
  • Quando a lista de colunas e a cláusula as query_statement estão presentes, o BigQuery ignora os nomes na cláusula as query_statement e combina as colunas com a lista de colunas por posição.
  • Quando a cláusula as query_statement está presente e a lista de colunas não existe, o BigQuery determina os nomes e os tipos de coluna com base na cláusula as query_statement.
  • Os nomes das colunas precisam ser especificados na lista de colunas, na cláusula as query_statement ou no esquema da tabela na cláusula LIKE.
  • Não é permitido duplicar nomes de colunas.
  • Quando a cláusula LIKE e a cláusula as query_statement estão presentes, a lista de colunas na instrução de consulta deve corresponder às colunas da tabela referenciadas pela cláusula LIKE.

Além disso, esta instrução é compatível com a seguinte variante:

  • CREATE TABLE LIKE: crie uma tabela com o mesmo esquema de uma tabela existente.
  • CREATE TABLE COPY: crie uma tabela copiando o esquema e os dados de uma tabela existente.

Caminho da tabela

project_name é o nome do projeto onde você está criando a tabela. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados onde você está criando a tabela. O padrão na solicitação é defaultDataset.

table_name é o nome da tabela que você está criando.

Ao criar uma tabela no BigQuery, o nome dela precisa ser exclusivo para cada conjunto de dados. Esse nome pode:

  • conter até 1.024 caracteres;
  • conter caracteres Unicode na categoria L (letra), M (marca), N (número), Pc (conector, inclusive sublinhado), Pd (travessão), Zs (espaço). Para mais informações, consulte Categoria geral.

Por exemplo, os nomes de tabela a seguir são válidos: table 01, ग्राहक, 00_お客様, étudiant-01.

Alguns nomes de tabelas e prefixos de nome de tabela são reservados. Se você receber um erro informando que o nome ou o prefixo da tabela está reservado, selecione um nome diferente e tente novamente.

column

column :=
  column_name column_schema

column_schema :=
   {
     simple_type [NOT NULL]
     | STRUCT<field_list> [NOT NULL]
     | ARRAY<array_element_schema>
   }
   [OPTIONS(column_option_list)]

field_list :=
  field_name column_schema [, ...]

array_element_schema :=
  { simple_type | STRUCT<field_list> }
  [NOT NULL]

(column_name column_schema[, ...]) contém as informações de esquema da tabela, em uma lista separada por vírgulas:

  • column_name é o nome da coluna. Um nome de coluna:

    • precisa conter apenas letras (a-z, A-Z), números (0-9) ou sublinhados (_);
    • precisa começar com uma letra ou um sublinhado;
    • pode ter até 300 caracteres.
  • column_schema é semelhante a um tipo de dados, mas aceita uma restrição NOT NULL opcional para tipos diferentes de ARRAY. column_schema também é compatível com opções em colunas de nível superior e campos STRUCT.

    column_schema pode ser usado apenas na lista de definições de coluna das instruções CREATE TABLE. Não pode ser usado como um tipo em expressões. Por exemplo, CAST(1 AS INT64 NOT NULL) não é válido.

  • simple_type é qualquer tipo de dados compatível exceto STRUCT e ARRAY.

  • field_list representa os campos em uma estrutura.

  • field_name é o nome do campo struct. Os nomes dos campos struct têm as mesmas restrições que os nomes das colunas.

  • NOT NULL: quando a restrição NOT NULL está presente em uma coluna ou um campo, a coluna ou o campo é criado com o modo REQUIRED. Por outro lado, quando a restrição NOT NULL está ausente, a coluna ou campo é criado com o modo NULLABLE.

    As colunas e campos do tipo ARRAY não são compatíveis com o modificador NOT NULL. Por exemplo, um column_schema de ARRAY<INT64> NOT NULL é inválido, uma vez que as colunas ARRAY têm o modo REPEATED e podem estar vazias, mas não podem ser NULL. Um elemento de matriz em uma tabela nunca pode ser NULL, independentemente de a restrição NOT NULL ser especificada. Por exemplo, ARRAY<INT64> é equivalente a ARRAY<INT64 NOT NULL>.

    O atributo NOT NULL de column_schema de uma tabela não se propaga por consultas nela. Se a tabela T contiver uma coluna declarada como x INT64 NOT NULL, por exemplo, o CREATE TABLE dataset.newtable AS SELECT x FROM T criará uma tabela denominada dataset.newtable em que x é NULLABLE.

partition_expression

PARTITION BY é uma cláusula opcional que controla o particionamento de tabelas. partition_expression é uma expressão que determina como particionar a tabela. A expressão da partição pode conter os seguintes valores:

  • _PARTITIONDATE. Partição por tempo de ingestão com partições diárias. Essa sintaxe não pode ser usada com a cláusula AS query_statement.
  • DATE(_PARTITIONTIME). Equivale a _PARTITIONDATE. Essa sintaxe não pode ser usada com a cláusula AS query_statement.
  • <date_column>. Partição por uma coluna DATE com partições diárias.
  • DATE({ <timestamp_column> | <datetime_column> }). Partição por uma coluna TIMESTAMP ou DATETIME com partições diárias.
  • DATETIME_TRUNC(<datetime_column>, { DAY | HOUR | MONTH | YEAR }). Partição por uma coluna DATETIME com o tipo de particionamento especificado.
  • TIMESTAMP_TRUNC(<timestamp_column>, { DAY | HOUR | MONTH | YEAR }). Partição por uma coluna TIMESTAMP com o tipo de particionamento especificado.
  • TIMESTAMP_TRUNC(_PARTITIONTIME, { DAY | HOUR | MONTH | YEAR }). Partição por tempo de ingestão com o tipo de particionamento especificado. Essa sintaxe não pode ser usada com a cláusula AS query_statement.
  • DATE_TRUNC(<date_column>, { MONTH | YEAR }). Partição por uma coluna DATE com o tipo de particionamento especificado.
  • RANGE_BUCKET(<int64_column>, GENERATE_ARRAY(<start>, <end>[, <interval>])). Partição por uma coluna de números inteiros com o intervalo especificado, em que:

    • start é o início do particionamento por intervalo, inclusivo;
    • end é o fim do particionamento por intervalo, exclusivo;
    • interval é a largura de cada intervalo dentro da partição. O padrão é 1.

clustering_column_list

CLUSTER BY é uma cláusula opcional que controla o clustering de tabelas. clustering_column_list é uma lista separada por vírgulas que termina como agrupar a tabela em cluster. A lista de colunas de agrupamento em cluster pode conter uma lista de até quatro agrupamentos de colunas em cluster.

table_option_list

A lista de opções permite que você defina opções de tabela, como um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de tabela no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

partition_expiration_days

FLOAT64

Exemplo: partition_expiration_days=7

Define a validade da partição em dias. Para mais informações, consulte Definir a validade da partição. Por padrão, as partições não expiram.

Essa propriedade é equivalente à propriedade de recurso de tabela timePartitioning.expirationMs, mas usa dias em vez de milissegundos. Um dia é equivalente a 86.400.000 milissegundos, ou 24 horas.

Só é possível definir essa propriedade se a tabela for particionada.

require_partition_filter

BOOL

Exemplo: require_partition_filter=true

Especifica se as consultas nesta tabela precisam incluir um filtro de predicado que filtre na coluna de particionamento. Para mais informações, consulte Definir requisitos de filtro de partição. O valor padrão é false.

Essa propriedade é equivalente à propriedade de recurso de tabela timePartitioning.requirePartitionFilter.

Só é possível definir essa propriedade se a tabela for particionada.

kms_key_name

STRING

Exemplo: kms_key_name="projects/project_id/locations/location/keyRings/keyring/cryptoKeys/key"

Essa propriedade é equivalente à propriedade de recurso de tabela encryptionConfiguration.kmsKeyName.

Consulte mais detalhes sobre Como proteger dados com chaves do Cloud KMS.

friendly_name

STRING

Exemplo: friendly_name="my_table"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a table that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for avaliada como null, a opção correspondente NAME será ignorada.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • As funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

column_option_list

A column_option_list em column_schema permite especificar opções de coluna ou campo opcionais. As opções de coluna têm a mesma sintaxe e requisitos que as opções de tabela, mas com uma lista diferente de NAMEs e VALUEs:

NAME VALUE Detalhes
description

STRING

Exemplo: description="a unique id"

Essa propriedade é equivalente à propriedade de recurso de tabela schema.fields[].description.

query_statement

A cláusula AS query_statement especifica a consulta que serve de base para a criação da tabela. Consulte a referência de sintaxe do SQL para saber a forma de query_statement compatível.

Limitações conhecidas:

  • Não é possível criar uma tabela particionada por tempo de ingestão a partir do resultado de uma consulta. Em vez disso, use uma instrução DDL CREATE TABLE para criar a tabela e, em seguida, uma instrução DML INSERT para inserir os dados.
  • Não é possível usar o modificador OR REPLACE para substituir uma tabela por outro tipo de particionamento. Em vez disso, DROP a tabela e use uma instrução CREATE TABLE ... AS SELECT ... para recriá-la.

CREATE TABLE LIKE

Para criar uma nova tabela com os mesmos metadados de outra tabela, substitua a lista de colunas pela cláusula LIKE ao usar a instrução CREATE TABLE.

Sintaxe

{CREATE TABLE | CREATE TABLE IF NOT EXISTS | CREATE OR REPLACE TABLE}
[[project_name.]dataset_name.]table_name
LIKE [[project_name.]dataset_name.]source_table_name
[PARTITION BY partition_expression]
[CLUSTER BY clustering_column_list]
[OPTIONS(table_option_list)]
[AS query_statement]

Além do uso da cláusula LIKE no lugar de uma lista de colunas, a sintaxe é idêntica à sintaxe CREATE TABLE.

A instrução CREATE TABLE LIKE copia apenas os metadados da tabela de origem. É possível usar a cláusula as query_statement para incluir dados na nova tabela.

A nova tabela não tem qualquer relação com a tabela de origem após a criação. Portanto, as modificações na tabela de origem não serão propagadas para a nova tabela.

Por padrão, a nova tabela herda os metadados de particionamento, clustering e opções da tabela de origem. É possível personalizar metadados na nova tabela usando as cláusulas opcionais na instrução SQL. Por exemplo, se você quiser especificar um conjunto diferente de opções para a nova tabela, inclua a cláusula OPTIONS com uma lista de opções e valores. Esse comportamento corresponde ao de ALTER TABLE SET OPTIONS.

CREATE TABLE COPY

Para criar uma nova tabela com os mesmos metadados e dados de outra tabela, substitua a lista de colunas pela cláusula COPY ao usar a instrução CREATE TABLE.

Sintaxe

{CREATE TABLE | CREATE TABLE IF NOT EXISTS | CREATE OR REPLACE TABLE}
[[project_name.]dataset_name.]table_name
COPY [[project_name.]dataset_name.]source_table_name
[OPTIONS(table_option_list)]

Além do uso da cláusula COPY no lugar de uma lista de colunas, a sintaxe é idêntica à sintaxe CREATE TABLE.

A instrução CREATE TABLE COPY copia os metadados e os dados da tabela de origem.

A nova tabela não tem qualquer relação com a tabela de origem após a criação. Portanto, as modificações na tabela de origem não serão propagadas para a nova tabela.

A nova tabela herda o particionamento e o clustering da tabela de origem. Por padrão, os metadados de opções da tabela de origem também são herdados. É possível personalizar opções de tabela na nova tabela usando as cláusulas OPTIONS na instrução SQL. O comportamento equivale a executar ALTER TABLE SET OPTIONS depois que a tabela tiver sido copiada.

Exemplos

Como criar uma nova tabela

No exemplo a seguir, criamos uma tabela particionada denominada newtable em mydataset.

CREATE TABLE mydataset.newtable
(
  x INT64 OPTIONS(description="An optional INTEGER field"),
  y STRUCT<
    a ARRAY<STRING> OPTIONS(description="A repeated STRING field"),
    b BOOL
  >
)
PARTITION BY _PARTITIONDATE
OPTIONS(
  expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC",
  partition_expiration_days=1,
  description="a table that expires in 2025, with each partition living for 24 hours",
  labels=[("org_unit", "development")]
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.newtable, o qualificador de tabela pode ser `myproject.mydataset.newtable`.

Se o nome da tabela existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: project_id:dataset.table

A tabela usa partition_expression a seguir para particionar a tabela: PARTITION BY _PARTITIONDATE. Essa expressão particiona a tabela usando a data na pseudocoluna _PARTITIONDATE.

O esquema da tabela tem duas colunas:

  • x: um inteiro, com a descrição "Um campo INTEGER opcional"
  • y: um STRUCT que contém duas colunas:

    • a: uma matriz de strings, com a descrição "Um campo STRING repetido"
    • b: um booleano

A lista de opções da tabela especifica:

  • Prazo de validade da tabela: 1º de janeiro de 2025 às 00:00:00 UTC;
  • Prazo de validade da partição: 1 dia;
  • Descrição: A table that expires in 2025
  • Rótulo: org_unit = development

Como criar uma nova tabela a partir de uma atual

No exemplo a seguir, criamos uma tabela chamada top_words em mydataset de uma consulta:

CREATE TABLE mydataset.top_words
OPTIONS(
  description="Top ten words per Shakespeare corpus"
) AS
SELECT
  corpus,
  ARRAY_AGG(STRUCT(word, word_count) ORDER BY word_count DESC LIMIT 10) AS top_words
FROM bigquery-public-data.samples.shakespeare
GROUP BY corpus;

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.top_words, o qualificador de tabela pode ser `myproject.mydataset.top_words`.

Se o nome da tabela existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: project_id:dataset.table

O esquema da tabela contém duas colunas:

  • corpus: nome de um corpus de Shakespeare
  • top_words: um ARRAY de STRUCTs contendo dois campos: word (uma STRING) e word_count (um INT64 com a contagem de palavras)

A lista de opções da tabela especifica:

  • Descrição: Top ten words per Shakespeare corpus

Como criar uma tabela somente se a tabela não existir

O exemplo a seguir cria uma tabela denominada newtable em mydataset somente se não houver uma tabela denominada newtable em mydataset. Se o nome da tabela existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será realizada.

CREATE TABLE IF NOT EXISTS mydataset.newtable (x INT64, y STRUCT<a ARRAY<STRING>, b BOOL>)
OPTIONS(
  expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC",
  description="a table that expires in 2025",
  labels=[("org_unit", "development")]
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.newtable, o qualificador de tabela pode ser `myproject.mydataset.newtable`.

O esquema da tabela contém duas colunas:

  • x: um número inteiro
  • y: STRUCT que contém a (uma matriz de strings) e b (um booleano)

A lista de opções da tabela especifica:

  • Prazo de validade: 1º de janeiro de 2025 às 00:00:00 UTC;
  • Descrição: A table that expires in 2025
  • Rótulo: org_unit = development

Como criar ou substituir uma tabela

No exemplo a seguir, será criada uma tabela chamada newtable em mydataset, e se newtable existir em mydataset, ela será substituída por uma tabela vazia.

CREATE OR REPLACE TABLE mydataset.newtable (x INT64, y STRUCT<a ARRAY<STRING>, b BOOL>)
OPTIONS(
  expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC",
  description="a table that expires in 2025",
  labels=[("org_unit", "development")]
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.newtable, o qualificador de tabela pode ser `myproject.mydataset.newtable`.

O esquema da tabela contém duas colunas:

  • x: um número inteiro
  • y: STRUCT que contém a (uma matriz de strings) e b (um booleano)

A lista de opções da tabela especifica:

  • Prazo de validade: 1º de janeiro de 2025 às 00:00:00 UTC;
  • Descrição: A table that expires in 2025
  • Rótulo: org_unit = development

Como criar uma tabela com colunas REQUIRED

No exemplo a seguir, criamos uma tabela denominada newtable em mydataset. O modificador NOT NULL na lista de definição de coluna de uma instrução CREATE TABLE especifica que uma coluna ou campo seja criado no modo REQUIRED.

CREATE TABLE mydataset.newtable (
  x INT64 NOT NULL,
  y STRUCT<
    a ARRAY<STRING>,
    b BOOL NOT NULL,
    c FLOAT64
  > NOT NULL,
  z STRING
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.newtable, o qualificador de tabela pode ser `myproject.mydataset.newtable`.

Se o nome da tabela existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: project_id:dataset.table

O esquema da tabela contém três colunas:

  • x: um número inteiro REQUIRED;
  • y: um REQUIRED STRUCT contendo a (uma matriz de strings), b (um booleano REQUIRED) e c (um flutuante NULLABLE);
  • z: uma string NULLABLE.

Como criar uma tabela com tipos de dados parametrizados

No exemplo a seguir, criamos uma tabela denominada newtable em mydataset. Os parâmetros entre parênteses especificam que a coluna contenha um tipo de dados parametrizado. Consulte Tipos de dados parametrizados para mais informações sobre os tipos parametrizados.

CREATE TABLE mydataset.newtable (
  x STRING(10),
  y STRUCT<
    a ARRAY<BYTES(5)>,
    b NUMERIC(15, 2),
    c FLOAT64
  >,
  z BIGNUMERIC(35)
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Em vez de mydataset.newtable, o qualificador de tabela precisa ser `myproject.mydataset.newtable`.

Se o nome da tabela existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: project_id:dataset.table

O esquema da tabela contém três colunas:

  • x: uma string parametrizada com o comprimento máximo de 10.
  • y: STRUCT que contém a (uma matriz de bytes parametrizados com comprimento máximo de 5), NUMERIC (parametrizado com precisão máxima de 15 e escala máxima de 2) e c (um flutuante)
  • z: BIGNUMERIC parametrizados com uma precisão máxima de 35 e escala máxima de 0

Como criar uma tabela particionada

No exemplo a seguir, criamos uma tabela particionada denominada newtable em mydataset usando uma coluna DATE.

CREATE TABLE mydataset.newtable (transaction_id INT64, transaction_date DATE)
PARTITION BY transaction_date
OPTIONS(
  partition_expiration_days=3,
  description="a table partitioned by transaction_date"
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.newtable, o qualificador de tabela pode ser `myproject.mydataset.newtable`.

O esquema da tabela contém duas colunas:

  • transaction_id: um número inteiro
  • transaction_date: uma data

A lista de opções da tabela especifica:

  • validade da partição: três dias;
  • Descrição: A table partitioned by transaction_date

Como criar uma tabela particionada a partir do resultado de uma consulta

No exemplo a seguir, criamos uma tabela particionada denominada days_with_rain em mydataset usando uma coluna DATE.

CREATE TABLE mydataset.days_with_rain
PARTITION BY date
OPTIONS (
  partition_expiration_days=365,
  description="weather stations with precipitation, partitioned by day"
) AS
SELECT
  DATE(CAST(year AS INT64), CAST(mo AS INT64), CAST(da AS INT64)) AS date,
  (SELECT ANY_VALUE(name) FROM `bigquery-public-data.noaa_gsod.stations` AS stations
   WHERE stations.usaf = stn) AS station_name,  -- Stations can have multiple names
  prcp
FROM `bigquery-public-data.noaa_gsod.gsod2017` AS weather
WHERE prcp != 99.9  -- Filter unknown values
  AND prcp > 0      -- Filter stations/days with no precipitation

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.days_with_rain, o qualificador de tabela pode ser `myproject.mydataset.days_with_rain`.

O esquema da tabela contém duas colunas:

  • data: a DATE da coleta de dados;
  • station_name: o nome da estação meteorológica como uma STRING;
  • prcp: a quantidade de precipitação em polegadas como um FLOAT64.

A lista de opções da tabela especifica:

  • validade da partição: um ano;
  • Descrição: Weather stations with precipitation, partitioned by day

Como criar uma tabela em cluster

Exemplo 1

No exemplo a seguir, é criada uma tabela em cluster denominada myclusteredtable em mydataset. É uma tabela particionada por uma coluna TIMESTAMP e agrupada em cluster por uma coluna STRING denominada customer_id.

CREATE TABLE mydataset.myclusteredtable
(
  timestamp TIMESTAMP,
  customer_id STRING,
  transaction_amount NUMERIC
)
PARTITION BY DATE(timestamp)
CLUSTER BY customer_id
OPTIONS (
  partition_expiration_days=3,
  description="a table clustered by customer_id"
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.myclusteredtable, o qualificador de tabela pode ser `myproject.mydataset.myclusteredtable`.

O esquema da tabela contém três colunas:

  • timestamp: o momento da coleta de dados como um TIMESTAMP;
  • customer_id: o ID do cliente como STRING;
  • transaction_amount: o valor da transação como NUMERIC.

A lista de opções da tabela especifica:

  • Validade da partição: 3 dias;
  • Descrição: A table clustered by customer_id
Exemplo 2

No exemplo a seguir, é criada uma tabela em cluster denominada myclusteredtable em mydataset. É uma tabela particionada por tempo de processamento.

CREATE TABLE mydataset.myclusteredtable
(
  customer_id STRING,
  transaction_amount NUMERIC
)
PARTITION BY DATE(_PARTITIONTIME)
CLUSTER BY
  customer_id
OPTIONS (
  partition_expiration_days=3,
  description="a table clustered by customer_id"
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.myclusteredtable, o qualificador de tabela pode ser `myproject.mydataset.myclusteredtable`.

O esquema da tabela contém duas colunas:

  • customer_id: o ID do cliente como STRING;
  • transaction_amount: o valor da transação como NUMERIC.

A lista de opções da tabela especifica:

  • Validade da partição: 3 dias;
  • Descrição: A table clustered by customer_id
Exemplo 3

No exemplo a seguir, é criada uma tabela em cluster denominada myclusteredtable em mydataset. A tabela não é particionada.

CREATE TABLE mydataset.myclusteredtable
(
  customer_id STRING,
  transaction_amount NUMERIC
)
CLUSTER BY
  customer_id
OPTIONS (
  description="a table clustered by customer_id"
)

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.myclusteredtable, o qualificador de tabela pode ser `myproject.mydataset.myclusteredtable`.

O esquema da tabela contém duas colunas:

  • customer_id: o ID do cliente como STRING;
  • transaction_amount: o valor da transação como NUMERIC.

A lista de opções da tabela especifica:

  • Descrição: A table clustered by customer_id

Como criar uma tabela em cluster a partir do resultado de uma consulta

Exemplo 1

No exemplo a seguir, é criada uma tabela em cluster denominada myclusteredtable em mydataset usando o resultado de uma consulta. É uma tabela particionada por uma coluna TIMESTAMP.

CREATE TABLE mydataset.myclusteredtable
(
  timestamp TIMESTAMP,
  customer_id STRING,
  transaction_amount NUMERIC
)
PARTITION BY DATE(timestamp)
CLUSTER BY
  customer_id
OPTIONS (
  partition_expiration_days=3,
  description="a table clustered by customer_id"
)
AS SELECT * FROM mydataset.myothertable

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.myclusteredtable, o qualificador de tabela pode ser `myproject.mydataset.myclusteredtable`.

O esquema da tabela contém três colunas:

  • timestamp: o momento da coleta de dados como um TIMESTAMP;
  • customer_id: o ID do cliente como STRING;
  • transaction_amount: o valor da transação como NUMERIC.

A lista de opções da tabela especifica:

  • Validade da partição: 3 dias;
  • Descrição: A table clustered by customer_id
Exemplo 2

No exemplo a seguir, é criada uma tabela em cluster denominada myclusteredtable em mydataset usando o resultado de uma consulta. A tabela não é particionada.

CREATE TABLE mydataset.myclusteredtable
(
  customer_id STRING,
  transaction_amount NUMERIC
)
CLUSTER BY
  customer_id
OPTIONS (
  description="a table clustered by customer_id"
)
AS SELECT * FROM mydataset.myothertable

Se você não tiver configurado um projeto padrão, anexe um ID do projeto ao nome do conjunto de dados no SQL de exemplo e coloque o nome entre crases caso project_id contenha caracteres especiais: `project_id.dataset.table`. Assim, em vez de mydataset.myclusteredtable, o qualificador de tabela pode ser `myproject.mydataset.myclusteredtable`.

O esquema da tabela contém duas colunas:

  • customer_id: o ID do cliente como STRING;
  • transaction_amount: o valor da transação como NUMERIC.

A lista de opções da tabela especifica:

  • Descrição: A table clustered by customer_id

Instrução CREATE SNAPSHOT TABLE

Para criar um instantâneo de tabela de uma tabela padrão ou para fazer uma cópia de um instantâneo de tabela, use a instrução DDL CREATE SNAPSHOT TABLE.

{CREATE SNAPSHOT TABLE | CREATE SNAPSHOT TABLE IF NOT EXISTS}
[[snapshot_project_name.]snapshot_dataset_name.]table_snapshot_name
CLONE [[source_project_name.]source_dataset_name.]source_table_name
[FOR SYSTEM_TIME AS OF time_expression]
[OPTIONS(snapshot_option_list)]

Em que:

{CREATE SNAPSHOT TABLE | CREATE SNAPSHOT TABLE IF NOT EXISTS} é uma das instruções a seguir:

  • CREATE SNAPSHOT TABLE: cria um novo snapshot da tabela se o nome especificado dele ainda não existir. Se o nome do snapshot da tabela especificado já existir, retornará um erro.
  • CREATE SNAPSHOT TABLE IF NOT EXISTS: cria um novo snapshot da tabela se o nome especificado não existir. Se o nome do snapshot da tabela especificado já existir, nenhuma ação será tomada e nenhum erro será retornado.

snapshot_project_name é o nome do projeto em que você quer criar o snapshot da tabela. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

snapshot_dataset_name é o nome do conjunto de dados em que você quer criar o snapshot da tabela. O padrão na solicitação é defaultDataset.

table_snapshot_name é o nome do snapshot da tabela que você quer criar. O nome do snapshot da tabela precisa ser exclusivo por conjunto de dados. O nome do snapshot da tabela pode conter o seguinte:

  • até 1.024 caracteres
  • Letras (maiúsculas e minúsculas), números e sublinhados

OPTIONS(snapshot_option_list) permite que você especifique outras opções de criação de snapshots de tabelas, como um rótulo e um prazo de validade.

CLONE especifica a tabela que terá o snapshot capturado ou o snapshot da tabela que você quer copiar.

FOR SYSTEM_TIME AS OF permite que você selecione a versão da tabela que estava sendo atualizada no momento especificado por timestamp_expression. Ela só pode ser usada ao criar um snapshot de uma tabela; não será possível usá-la para copiar um snapshot de tabela.

source_project_name é o nome do projeto da tabela que você quer capturar ou do snapshot da tabela que você quer copiar. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

source_dataset_name é o nome do conjunto de dados que contém a tabela que você quer capturar ou o snapshot da tabela que você quer copiar. O padrão na solicitação é defaultDataset.

source_table_name é o nome da tabela que você quer capturar ou do snapshot da tabela que você quer copiar. Se a tabela de origem for uma tabela padrão, o BigQuery criará um snapshot da tabela de origem. Se a tabela de origem for um snapshot de tabela, o BigQuery criará uma cópia do snapshot da tabela.

Nas instruções CREATE SNAPSHOT TABLE, siga estas regras:

  • Apenas uma instrução CREATE é permitida.
  • A tabela que está sendo clonada precisa ser uma das seguintes:
    • Uma tabela padrão (não uma visualização ou uma visualização materializada)
    • Um snapshot da tabela
  • A cláusula FOR SYSTEM_TIME AS OF só pode ser usada ao criar um snapshot de uma tabela não será possível usá-la para copiar um snapshot de tabela.

snapshot_option_list

A lista de opções permite que você defina opções de snapshot da tabela, como um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de snapshot de tabela no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

friendly_name

STRING

Exemplo: friendly_name="my_table_snapshot"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="A table snapshot that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for avaliada como null, a opção correspondente NAME será ignorada.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • as funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

Exemplos

Criar um snapshot da tabela: falha se ele já existir

No exemplo a seguir, criamos um snapshot da tabela myproject.mydataset.mytable. O snapshot da tabela é criado no conjunto de dados mydataset e denominado mytablesnapshot:

CREATE SNAPSHOT TABLE `myproject.mydataset.mytablesnapshot`
CLONE `myproject.mydataset.mytable`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="my_table_snapshot",
  description="A table snapshot that expires in 2 days",
  labels=[("org_unit", "development")]
)

Se o nome do snapshot da tabela já existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: myproject.mydataset.mytablesnapshot

A lista de opções de snapshot da tabela especifica o seguinte:

  • Prazo de validade: 48 horas após a criação do snapshot da tabela
  • Nome amigável: my_table_snapshot
  • Descrição: A table snapshot that expires in 2 days
  • Rótulo: org_unit = development

Criar um snapshot da tabela: ignorar se já existir

No exemplo a seguir, criamos um snapshot da tabela myproject.mydataset.mytable. O snapshot da tabela é criado no conjunto de dados mydataset e denominado mytablesnapshot:

CREATE SNAPSHOT TABLE IF NOT EXISTS `myproject.mydataset.mytablesnapshot`
CLONE `myproject.mydataset.mytable`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="my_table_snapshot",
  description="A table snapshot that expires in 2 days"
  labels=[("org_unit", "development")]
)

A lista de opções de snapshot da tabela especifica o seguinte:

  • Prazo de validade: 48 horas após a criação do snapshot da tabela
  • Nome amigável: my_table_snapshot
  • Descrição: A table snapshot that expires in 2 days
  • Rótulo: org_unit = development

Se o nome do snapshot da tabela já existir no conjunto de dados, nenhuma ação será tomada e nenhum erro será retornado.

Para mais informações sobre como restaurar snapshots de tabelas, consulte CREATE TABLE CLONE.

Para mais informações sobre como remover snapshots de tabelas, consulte DROP SNAPSHOT TABLE.

Instrução CREATE TABLE CLONE

Para restaurar um instantâneo da tabela para uma tabela padrão no BigQuery, use a instrução DDL CREATE TABLE CLONE.

{CREATE TABLE | CREATE TABLE IF NOT EXISTS | CREATE OR REPLACE TABLE}
[[destination_project_name.]destination_dataset_name.]destination_table_name
CLONE [[snapshot_project_name.]snapshot_dataset_name.]table_snapshot_name
[OPTIONS(table_option_list)]

Em que:

{CREATE TABLE | CREATE TABLE IF NOT EXISTS | CREATE OR REPLACE TABLE} é uma das instruções a seguir:

  • CREATE TABLE: cria uma nova tabela a partir de um snapshot da tabela, caso o nome da tabela de destino especificado ainda não exista. Se o nome da tabela de destino especificado já existir, retornará um erro.
  • CREATE TABLE IF NOT EXISTS: cria uma nova tabela a partir de um snapshot da tabela, caso o nome da tabela de destino especificado ainda não exista. Se o nome da tabela de destino especificada já existir, nenhuma ação será realizada e nenhum erro será retornado.
  • CREATE OR REPLACE TABLE: cria uma tabela e substitui uma tabela atual de mesmo nome no conjunto de dados especificado.

destination_project_name é o nome do projeto em que você quer criar a tabela; O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

destination_dataset_name é o nome do conjunto de dados em que você quer criar a tabela. O padrão na solicitação é defaultDataset.

destination_table_name é o nome da tabela que você quer criar; O nome da tabela precisa ser exclusivo por conjunto de dados. O nome da tabela pode conter:

  • até 1.024 caracteres
  • Letras (maiúsculas e minúsculas), números e sublinhados

OPTIONS(table_option_list) permite especificar outras opções de criação de visualizações, como um rótulo e um prazo de validade.

CLONE especifica o snapshot da tabela que você quer restaurar.

snapshot_project_name é o nome do projeto que contém o snapshot da tabela que você quer restaurar. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

snapshot_dataset_name é o nome do conjunto de dados que contém o snapshot da tabela que você quer restaurar. O padrão na solicitação é defaultDataset.

table_snapshot_name é o nome do snapshot da tabela que você quer restaurar.

Nas instruções CREATE TABLE CLONE, siga estas regras:

  • Apenas uma instrução CREATE é permitida.
  • A tabela que está sendo clonada precisa ser um snapshot da tabela.

OPTIONS

As opções CREATE TABLE CLONE são iguais às opções CREATE TABLE.

Exemplos

Restaurar um snapshot da tabela: falhará se a tabela de destino já existir

O exemplo a seguir cria a tabela myproject.mydataset.mytable a partir do snapshot da tabela myproject.mydataset.mytablesnapshot:

CREATE TABLE `myproject.mydataset.mytable`
CLONE `myproject.mydataset.mytablesnapshot`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 365 DAY),
  friendly_name="my_table",
  description="A table that expires in 1 year",
  labels=[("org_unit", "development")]
)

Se o nome da tabela existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: myproject.mydataset.mytable.

A lista de opções da tabela especifica:

  • Prazo de validade: 365 dias após a criação da tabela
  • Nome amigável: my_table
  • Descrição: A table that expires in 1 year
  • Rótulo: org_unit = development

Restaurar um snapshot de tabela: ignorar se a tabela de destino já existir

O exemplo a seguir cria a tabela myproject.mydataset.mytable a partir do snapshot da tabela myproject.mydataset.mytableshapshot:

CREATE TABLE IF NOT EXISTS `myproject.mydataset.mytable`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 365 DAY),
  friendly_name="my_table",
  description="A table that expires in 1 year",
  labels=[("org_unit", "development")]
)
CLONE `myproject.mydataset.mytablesnapshot`

A lista de opções da tabela especifica:

  • Prazo de validade: 365 dias após a criação da tabela
  • Nome amigável: my_table
  • Descrição: A table that expires in 1 year
  • Rótulo: org_unit = development

Se o nome da tabela existir no conjunto de dados, nenhuma ação será tomada e nenhum erro será retornado.

Para informações sobre como criar snapshots de tabelas, consulte CREATE SNAPSHOT TABLE.

Para mais informações sobre como remover snapshots de tabelas, consulte DROP SNAPSHOT TABLE.

Como criar uma tabela temporária

No exemplo a seguir, criamos uma tabela temporária chamada Example e insere valores nela.

CREATE TEMP TABLE Example
(
  x INT64,
  y STRING
);

INSERT INTO Example
VALUES (5, 'foo');

INSERT INTO Example
VALUES (6, 'bar');

SELECT *
FROM Example;

Esse script retorna a saída a seguir:

+-----+---+-----+
| Row | x | y   |
+-----+---|-----+
| 1   | 5 | foo |
| 2   | 6 | bar |
+-----+---|-----+

Criar tabela como

Exemplo 1

No exemplo a seguir, criamos uma nova tabela chamada newtable em mydataset com os mesmos metadados que sourcetable:

CREATE TABLE mydataset.newtable
LIKE mydataset.newtable
Exemplo 2

No exemplo a seguir, criamos uma nova tabela chamada newtable em mydataset com os mesmos metadados que sourcetable e os dados da instrução SELECT:

CREATE TABLE mydataset.newtable
LIKE mydataset.soucetable
AS SELECT * FROM mydataset.myothertable

Instrução CREATE VIEW

Para criar uma visualização no BigQuery, use a instrução DDL CREATE VIEW.

{CREATE VIEW | CREATE VIEW IF NOT EXISTS | CREATE OR REPLACE VIEW}
[[project_name.]dataset_name.]view_name [(view_column_name_list)]
[OPTIONS(view_option_list)]
AS query_expression

Em que:

{CREATE VIEW | CREATE VIEW IF NOT EXISTS | CREATE OR REPLACE VIEW} é uma das instruções a seguir:

  • CREATE VIEW: cria uma nova visualização.
  • CREATE VIEW IF NOT EXISTS: cria uma nova visualização somente se ela não existir no conjunto de dados especificado.
  • CREATE OR REPLACE VIEW: cria uma visualização que substitui uma visualização de mesmo nome no conjunto de dados especificado.

project_name é o nome do projeto onde você está criando a visualização. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados onde você está criando a visualização. O padrão na solicitação é defaultDataset.

view_name é o nome da visualização que você está criando.

Ao criar uma visualização no BigQuery, o nome dela precisa ser exclusivo por conjunto de dados. O nome da visualização pode:

  • conter até 1.024 caracteres
  • conter caracteres Unicode na categoria L (letra), M (marca), N (número), Pc (conector, inclusive sublinhado), Pd (travessão), Zs (espaço). Para mais informações, consulte Categoria geral.

Por exemplo, os nomes de visualização a seguir são válidos: view 01, ग्राहक, 00_お客様, étudiant-01.

Alguns nomes e prefixos de nomes de visualização são reservados. Se você receber um erro informando que o nome ou o prefixo da visualização está reservado, selecione um nome diferente e tente novamente.

view_column_name_list permite especificar explicitamente os nomes das colunas da visualização, que podem ser aliases dos nomes de coluna na consulta SQL subjacente.

view_option_list permite especificar outras opções de criação de visualizações, como um rótulo e um prazo de validade.

Nas instruções CREATE VIEW, siga estas regras:

  • Apenas uma instrução CREATE é permitida.

query_expression é a expressão da consulta SQL padrão usada para definir a visualização.

view_column_name_list

A lista de nomes de colunas da visualização é opcional. Os nomes precisam ser exclusivos, mas não precisam ser iguais aos nomes das colunas da consulta SQL subjacente. Por exemplo, se a visualização for criada com a seguinte instrução:

CREATE VIEW mydataset.age_groups(age, count) AS SELECT age, COUNT(*)
FROM mydataset.people
group by age;

Você pode consultá-la com:

SELECT age, count from mydataset.age_groups;

o número de colunas na lista de nomes de colunas precisa corresponder ao número de colunas na consulta SQL subjacente. Se as colunas na tabela da consulta SQL subjacente forem adicionadas ou removidas, a visualização ficará inválida e precisará ser recriada. Por exemplo, se a coluna age for removida da tabela mydataset.people, a visualização criada no exemplo anterior ficará inválida.

view_option_list

A lista de opções permite que você defina opções de visualização, como um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de visualização no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

friendly_name

STRING

Exemplo: friendly_name="my_view"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a view that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for avaliada como null, a opção correspondente NAME será ignorada.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • as funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

Projeto padrão no corpo da visualização

Se a visualização for criada no mesmo projeto usado para executar a instrução CREATE VIEW, o corpo da visualização query_expression poderá referir-se a entidades sem especificar o projeto. O projeto padrão é o proprietário da visualização. Considere o exemplo de consulta abaixo.

CREATE VIEW myProject.myDataset.myView AS SELECT * FROM anotherDataset.myTable;

Depois de executar a consulta CREATE VIEW acima no projeto myProject, execute SELECT * FROM myProject.myDataset.myView. Independentemente do projeto escolhido para executar essa consulta SELECT, a tabela referenciada anotherDataset.myTable é sempre resolvida em relação ao projeto myProject.

Se a visualização não for criada no mesmo projeto usado para executar a instrução CREATE VIEW, todas as referências no corpo da visualização query_expression precisarão ser qualificadas com os IDs do projeto. Por exemplo, a consulta de amostra CREATE VIEW anterior é inválida se for executada em um projeto diferente de myProject.

Exemplos

Como criar uma nova visualização

No exemplo a seguir, criamos uma visualização denominada newview em mydataset:

CREATE VIEW `myproject.mydataset.newview`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="newview",
  description="a view that expires in 2 days",
  labels=[("org_unit", "development")]
)
AS SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

Se o nome da visualização existir no conjunto de dados, o erro a seguir será retornado:

Already Exists: project_id:dataset.table

A visualização é definida usando a consulta SQL padrão a seguir:

SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A lista de opções de visualização especifica:

  • Prazo de validade: 48 horas a partir do momento em que a visualização é criada;
  • Nome amigável: newview
  • Descrição: A view that expires in 2 days
  • Rótulo: org_unit = development

Como criar uma visualização somente se ela não existir

No exemplo a seguir, criaremos uma visualização chamada newview em mydataset somente se nenhuma visualização chamada newview existir em mydataset. Se o nome da visualização existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será tomada.

CREATE VIEW IF NOT EXISTS `myproject.mydataset.newview`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="newview",
  description="a view that expires in 2 days",
  labels=[("org_unit", "development")]
)
AS SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A visualização é definida usando a consulta SQL padrão a seguir:

SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A lista de opções de visualização especifica:

  • Prazo de validade: 48 horas a partir do momento em que a visualização é criada;
  • Nome amigável: newview
  • Descrição: A view that expires in 2 days
  • Rótulo: org_unit = development

Como criar ou substituir uma visualização

No exemplo a seguir, criamos uma visualização chamada newview em mydataset, e se newview existir em mydataset, ela será substituída usando a expressão de consulta especificada.

CREATE OR REPLACE VIEW `myproject.mydataset.newview`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="newview",
  description="a view that expires in 2 days",
  labels=[("org_unit", "development")]
)
AS SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A visualização é definida usando a consulta SQL padrão a seguir:

SELECT column_1, column_2, column_3 FROM myproject.mydataset.mytable

A lista de opções de visualização especifica:

  • Prazo de validade: 48 horas a partir do momento em que a visualização é criada;
  • Nome amigável: newview
  • Descrição: A view that expires in 2 days
  • Rótulo: org_unit = development

Instrução CREATE MATERIALIZED VIEW

Para criar uma visualização materializada no BigQuery, use a instrução DDL CREATE MATERIALIZED VIEW.

{CREATE MATERIALIZED VIEW | CREATE MATERIALIZED VIEW IF NOT EXISTS }
[[project_name.]dataset_name.]materialized_view_name
[PARTITION BY partition_expression]
[CLUSTER BY clustering_column_list]
[OPTIONS(materialized_view_option_list)]
AS query_expression

Em que:

{CREATE MATERIALIZED VIEW | CREATE MATERIALIZED VIEW IF NOT EXISTS } é uma das instruções a seguir:

  • CREATE MATERIALIZED VIEW: cria uma nova visualização materializada.

  • CREATE MATERIALIZED VIEW IF NOT EXISTS: cria uma nova visualização materializada somente se ela ainda não existir no conjunto de dados especificado.

project_name é o nome do projeto onde você está criando a visualização materializada. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

Se o project_name for omitido ou for igual ao projeto que executa essa consulta DDL, o último também será usado como o projeto padrão das referências a tabelas, funções etc., em query_expression (observação: o projeto padrão das referências é corrigido e não depende das consultas futuras que invocam a nova visualização materializada). Caso contrário, todas as referências em query_expression precisam ser qualificadas com projetos.

dataset_name é o nome do conjunto de dados onde você está criando a visualização materializada. O padrão na solicitação é defaultDataset.

materialized_view_name é o nome da visualização materializada que está sendo criada. Esse nome precisa ser exclusivo por conjunto de dados. Ele pode:

  • Conter até 1.024 caracteres
  • Conter letras (maiúsculas e minúsculas), números e sublinhados

As cláusulas PARTITION BY e CLUSTER BY são usadas como em uma instrução CREATE TABLE. Uma visualização materializada só pode ser particionada da mesma maneira como se particiona a tabela em query expression (a tabela base).

materialized_view_option_list permite que você especifique outras opções de visualização materializadas, como a ativação e o intervalo da atualização, um rótulo e um prazo de validade.

Nas instruções CREATE MATERIALIZED VIEW, siga estas regras:

  • Apenas uma instrução CREATE é permitida.

query_expression é a expressão de consulta SQL padrão usada para definir a visualização materializada.

materialized_view_option_list

A lista de opções permite que você defina opções de visualização materializadas, como a ativação e o intervalo de atualização, um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de visualização materializada no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
enable_refresh BOOLEAN

Exemplo: enable_refresh=false

refresh_interval_minutes FLOAT64

Exemplo: refresh_interval_minutes=20

expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

friendly_name

STRING

Exemplo: friendly_name="my_mv"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a materialized view that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

Projeto padrão no corpo da visualização materializada

Se a visualização materializada for criada no mesmo projeto usado para executar a instrução CREATE MATERIALIZED VIEW, o corpo da visualização materializada query_expression poderá referir-se a entidades sem especificar o projeto. O projeto padrão é o proprietário da visualização materializada. Considere o exemplo de consulta abaixo.

CREATE MATERIALIZED VIEW myProject.myDataset.myView AS SELECT * FROM anotherDataset.myTable;

Depois de executar a consulta CREATE MATERIALIZED VIEW acima no projeto myProject, execute SELECT * FROM myProject.myDataset.myView. Independentemente do projeto escolhido para executar essa consulta SELECT, a tabela referenciada anotherDataset.myTable é sempre resolvida em relação ao projeto myProject.

Se a visualização materializada não for criada no mesmo projeto usado para executar a instrução CREATE VIEW, todas as referências no corpo da visualização materializada query_expression precisarão ser qualificadas com IDs de projeto. Por exemplo, a consulta de amostra CREATE MATERIALIZED VIEW anterior é inválida se for executada em um projeto diferente de myProject.

Exemplos

Como criar uma nova visualização materializada

O exemplo a seguir cria uma visualização materializada denominada new_mv em mydataset:

CREATE MATERIALIZED VIEW `myproject.mydataset.new_mv`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="new_mv",
  description="a materialized view that expires in 2 days",
  labels=[("org_unit", "development")],
  enable_refresh=true,
  refresh_interval_minutes=20
)
AS SELECT column_1, SUM(column_2) AS sum_2, AVG(column_3) AS avg_3
FROM `myproject.mydataset.mytable`
GROUP BY column_1

Se o nome da visualização materializada existir no conjunto de dados, este erro será retornado:

Already Exists: project_id:dataset.materialized_view

Ao usar uma instrução DDL para criar uma visualização materializada, especifique o projeto, o conjunto de dados e a visualização materializada no seguinte formato: `project_id.dataset.materialized_view` (incluindo os acentos graves, se project_id tiver caracteres especiais); por exemplo, `myproject.mydataset.new_mv`.

A visualização materializada é definida usando a consulta SQL padrão a seguir:

SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A lista de opções de visualização materializada especifica:

  • Prazo de validade: 48 horas a partir da criação da visualização materializada;
  • Nome amigável: new_mv
  • Descrição: A materialized view that expires in 2 days
  • Rótulo: org_unit = development
  • Atualização ativada: true;
  • Intervalo de atualização: 20 minutos.

Como criar uma visualização materializada apenas se ela não existir

O exemplo a seguir cria uma visualização materializada chamada new_mv no mydataset apenas se não houver nenhuma com o nome new_mv no mydataset. Se esse nome existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será realizada.

CREATE MATERIALIZED VIEW IF NOT EXISTS `myproject.mydataset.new_mv`
OPTIONS(
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 48 HOUR),
  friendly_name="new_mv",
  description="a view that expires in 2 days",
  labels=[("org_unit", "development")],
  enable_refresh=false
)
AS SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A visualização materializada é definida usando a consulta SQL padrão a seguir:

SELECT column_1, column_2, column_3 FROM `myproject.mydataset.mytable`

A lista de opções de visualização materializada especifica:

  • Prazo de validade: 48 horas a partir do momento em que a visualização é criada;
  • Nome amigável: new_mv
  • Descrição: A view that expires in 2 days
  • Rótulo: org_unit = development
  • Atualização ativada: falso.

Como criar uma visualização materializada com particionamento e clustering

O exemplo a seguir cria uma visualização materializada denominada new_mv em mydataset, particionada pela coluna col_datetime e em cluster pela coluna col_int:

CREATE MATERIALIZED VIEW `myproject.mydataset.new_mv`
PARTITION BY DATE(col_datetime)
CLUSTER BY col_int
AS SELECT col_int, col_datetime, COUNT(1) as cnt
   FROM `myproject.mydataset.mv_base_table`
   GROUP BY col_int, col_datetime

A tabela base, mv_base_table, também precisa ser particionada pela coluna col_datetime. Para mais informações, consulte Como trabalhar com tabelas particionadas e em cluster.

Instrução CREATE EXTERNAL TABLE

A instrução CREATE EXTERNAL TABLE cria uma tabela externa. Com as tabelas externas, os dados de consulta do BigQuery são armazenados fora do armazenamento do BigQuery. Para mais informações sobre tabelas externas, consulte Introdução às fontes de dados externas.

CREATE [OR REPLACE] EXTERNAL TABLE [IF NOT EXISTS] [[project_name.]dataset_name.]table_name
[(
  column_name column_schema,
  ...
)]

[WITH PARTITION COLUMNS
  [(
      partition_column_name partition_column_type,
      ...
  )]
]
OPTIONS (
  external_table_option_list,
  ...
);

Em que:

  • project_name é o nome do projeto onde você está criando a tabela. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados em que você está criando a tabela.

  • table_name é o nome da tabela externa.

  • column_name é o nome de uma coluna na tabela.

  • column_schema especifica o esquema da coluna. Ele usa a mesma sintaxe da definição column_schema na instrução CREATE TABLE. Se você não incluir essa cláusula, o esquema será detectado automaticamente pelo BigQuery.

  • partition_column_name é o nome de uma coluna de partição. Inclua este campo se os dados externos usarem um layout particionado do Hive. Para mais informações, consulte Layouts de dados compatíveis.

  • partition_column_type é o tipo da coluna de partição.

  • external_table_option_list especifica uma lista de opções para criar a tabela externa.

external_table_option_list

A lista especifica opções para a criação da tabela externa. As opções format e uris são obrigatórias. Especifique a lista de opções no seguinte formato: NAME=VALUE, ...

Opções
allow_jagged_rows

BOOL

Se true, permita linhas que não têm colunas opcionais posteriores.

Aplica-se a dados CSV.

allow_quoted_newlines

BOOL

Se true, permita seções de dados entre aspas que contenham caracteres de nova linha no arquivo.

Aplica-se a dados CSV.

compression

STRING

O tipo de compactação da fonte de dados. Os valores aceitos são: GZIP. Se não for especificada, a fonte de dados será descompactada.

Aplica-se a dados CSV e JSON.

description

STRING

Uma descrição da tabela.

enable_logical_types

BOOL

Se true, converta tipos lógicos Avro nos tipos SQL correspondentes. Para mais informações, consulte Tipos lógicos.

Aplica-se a dados Avro.

encoding

STRING

A codificação de caracteres dos dados. Os valores aceitos incluem: UTF8 (ou UTF-8), ISO_8859_1 (ou ISO-8859-1).

Aplica-se a dados CSV.

expiration_timestamp

TIMESTAMP

A hora em que esta tabela expira. Se não for especificado, a tabela não expirará.

Exemplo: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

O separador de campos em um arquivo CSV.

Aplica-se a dados CSV.

format

STRING

O formato dos dados externos. Os valores aceitos são: AVRO, CSV, DATASTORE_BACKUP, GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (ou JSON), ORC, PARQUET.

O valor JSON é equivalente a NEWLINE_DELIMITED_JSON.

decimal_target_types

ARRAY<STRING>

Determina como converter um tipo Decimal. Equivalente a ExternalDataConfiguration.decimal_target_types

Exemplo: ["NUMERIC", "BIGNUMERIC"].

json_extension

STRING

Para dados JSON, indica um determinado formato de intercâmbio JSON. Se não for especificado, o BigQuery lerá os dados como registros JSON genéricos.

Os valores aceitos incluem:
GEOJSON (Visualização). Dados GeoJSON. Para mais informações, consulte Como carregar dados GeoJSON.

hive_partition_uri_prefix

STRING

Um prefixo comum para todos os URIs de origem antes do início da codificação da chave de partição. Aplica-se apenas a tabelas externas particionadas pelo Hive.

Aplica-se aos dados Avro, CSV, JSON, Parquet e ORC.

Exemplo: "gs://bucket/path".

ignore_unknown_values

BOOL

Se for true, ignora valores extras que não estejam representados no esquema da tabela, sem retornar um erro.

Aplica-se a dados CSV e JSON.

max_bad_records

INT64

O número máximo de registros corrompidos a serem ignorados durante a leitura dos dados.

Aplica-se a: dados CSV, JSON e Planilhas.

null_marker

STRING

A string que representa os valores NULL em um arquivo CSV.

Aplica-se a dados CSV.

projection_fields

STRING

Uma lista de propriedades da entidade a serem carregadas.

Aplica-se aos dados do Datastore.

quote

STRING

A string usada para citar seções de dados em um arquivo CSV. Se os dados contiverem caracteres de nova linha entre aspas, defina também a propriedade allow_quoted_newlines como true.

Aplica-se a dados CSV.

require_hive_partition_filter

BOOL

Se true, todas as consultas nesta tabela exigem um filtro de partição que pode ser usado para eliminar partições ao ler dados. Aplica-se apenas a tabelas externas particionadas pelo Hive.

Aplica-se aos dados Avro, CSV, JSON, Parquet e ORC.

sheet_range

STRING

Intervalo de uma planilha do Planilhas a ser consultada.

Aplicável aos dados do Planilhas.

Exemplo: “sheet1!A1:B20”,

skip_leading_rows

INT64

O número de linhas na parte superior de um arquivo a ser ignorado na leitura dos dados.

Aplicável aos dados CSV e Planilhas.

uris

ARRAY<STRING>

Uma matriz de URIs totalmente qualificados para os locais de dados externos.

Exemplo: ["gs://bucket/path/*"].

A instrução CREATE EXTERNAL TABLE não é compatível com a criação de tabelas externas temporárias.

Para criar uma tabela particionada externamente, use a cláusula WITH PARTITION COLUMNS para especificar os detalhes do esquema de partição. O BigQuery valida as definições de coluna em relação ao local externo de dados. A declaração do esquema precisa seguir estritamente a ordem dos campos do caminho externo. Para mais informações sobre o particionamento externo, consulte Como consultar dados particionados externamente.

Exemplos

No exemplo a seguir, criamos uma tabela externa a partir de vários URIs. O formato dos dados é CSV. Este exemplo usa detecção automática de esquema.

CREATE EXTERNAL TABLE dataset.CsvTable OPTIONS (
  format = 'CSV',
  uris = ['gs://bucket/path1.csv', 'gs://bucket/path2.csv']
);

O exemplo a seguir cria uma tabela externa a partir de um arquivo CSV e especifica explicitamente o esquema. Ele também especifica o delimitador do campo ('|') e define o número máximo de registros inválidos permitidos.

CREATE OR REPLACE EXTERNAL TABLE dataset.CsvTable
(
  x INT64,
  y STRING
)
OPTIONS (
  format = 'CSV',
  uris = ['gs://bucket/path1.csv'],
  field_delimiter = '|',
  max_bad_records = 5
);

No exemplo a seguir, criamos uma tabela particionada externamente. Ele usa a detecção automática de esquema para detectar o esquema de arquivo e o layout de particionamento do Hive.

Por exemplo, se o caminho externo for gs://bucket/path/field_1=first/field_2=1/data.csv, as colunas da partição serão field_1 (STRING) e field_2 (INT64).

CREATE EXTERNAL TABLE dataset.AutoHivePartitionedTable
WITH PARTITION COLUMNS
OPTIONS (
  uris=['gs://bucket/path/*'],
  format=csv,
  hive_partition_uri_prefix='gs://bucket/path'
);

O exemplo a seguir cria uma tabela particionada externamente especificando explicitamente as colunas de partição. Neste exemplo, consideramos que o caminho do arquivo externo tem o padrão gs://bucket/path/field_1=first/field_2=1/data.csv.

CREATE EXTERNAL TABLE dataset.CustomHivePartitionedTable
WITH PARTITION COLUMNS (
  field_1 STRING, -- column order must match the external path
  field_2 INT64
)
OPTIONS (
  uris=['gs://bucket/path/*'],
  format=csv,
  hive_partition_uri_prefix='gs://bucket/path'
);

Instrução CREATE FUNCTION

Cria uma função definida pelo usuário (UDF, na sigla em inglês). O BigQuery é compatível com UDFs escritas em SQL ou JavaScript. Para mais informações sobre UDFs, consulte Funções do SQL padrão definidas pelo usuário.

Para criar uma UDF em SQL, use a seguinte sintaxe:

CREATE [OR REPLACE] [TEMPORARY | TEMP] FUNCTION [IF NOT EXISTS]
    [[project_name.]dataset_name.]function_name
    ([named_parameter[, ...]])
  [RETURNS data_type]
  AS (sql_expression)

named_parameter:
  param_name param_type

Para criar uma UDF em JavaScript, use a seguinte sintaxe:

CREATE [OR REPLACE] [TEMPORARY | TEMP] FUNCTION [IF NOT EXISTS]
    [[project_name.]dataset_name.]function_name
    ([named_parameter[, ...]])
  RETURNS data_type
  [determinism_specifier]
  LANGUAGE js
  [OPTIONS (function_option_list)]
  AS javascript_code

named_parameter:
  param_name param_type

determinism_specifier:
  { DETERMINISTIC | NOT DETERMINISTIC }

Essa sintaxe consiste nos seguintes componentes:

  • IF NOT EXISTS Cria uma nova função somente se a função não existir no conjunto de dados especificado. Não pode aparecer com OR REPLACE.

  • TEMP ou TEMPORARY. Cria uma função temporária. Se a cláusula não estiver presente, a instrução criará uma UDF permanente. É possível reutilizar UDFs permanentes em várias consultas, mas as UDFs temporárias só podem ser usadas em uma única consulta, script ou procedimento.

  • OR REPLACE. Substitui qualquer função com o mesmo nome, se houver. Não pode aparecer com IF NOT EXISTS.

  • project_name. Para funções permanentes, o nome do projeto onde você está criando a função. O padrão é o projeto que executa a consulta DDL. Não inclua o nome do projeto para funções temporárias.

  • dataset_name. Para funções permanentes, o nome do conjunto de dados em que você está criando a função. O padrão na solicitação é defaultDataset. Não inclua o nome do conjunto de dados para funções temporárias.

  • function_name. O nome da função.

  • named_parameter. Um par de param_name e param_type separado por vírgula. O valor de param_type é um tipo de dados do BigQuery. Para uma UDF SQL, o valor de param_type também pode ser ANY TYPE.

  • determinism_specifier. Aplicável apenas a UDFs em JavaScript. Indica ao BigQuery se o resultado da consulta pode ser armazenado em cache. Pode ser um dos seguintes valores:

    • DETERMINISTIC: a função sempre retorna o mesmo resultado quando os mesmos argumentos são transmitidos. O resultado da consulta é potencialmente armazenável em cache. Por exemplo, se a função add_one(i) sempre retornar i + 1, a função será determinista.

    • NOT DETERMINISTIC: a função nem sempre retorna o mesmo resultado quando os mesmos argumentos são transmitidos e, portanto, não é armazenável em cache. Por exemplo, se a função add_random(i) retornar i + rand(), a função não é determinista e o BigQuery não usa resultados armazenados em cache.

      Se todas as funções invocadas forem DETERMINISTIC, o BigQuery tentará armazenar o resultado em cache, a menos que os resultados não possam ser armazenados em cache por outros motivos. Para saber mais, consulte Como usar resultados de consulta armazenados em cache.

  • data_type. Especifica o tipo de dados retornado pela função.

    • Se a função estiver definida em SQL, a cláusula RETURNS será opcional. Se a cláusula RETURNS for omitida, o BigQuery deduzirá o tipo de resultado da função a partir do corpo da função SQL quando uma consulta chamar a função.
    • Se a função estiver definida em JavaScript, a cláusula RETURNS será obrigatória. Para mais informações sobre valores permitidos para data_type, consulte Tipos de dados de UDF JavaScript compatíveis.
  • sql_expression. Especifica a expressão em SQL que define a função.

  • function_option_list. Uma lista de opções para criar a função. Aplica-se apenas a UDFs em JavaScript.

  • javascript_code. A definição de uma função em JavaScript. O valor é um literal de string. Se o código incluir aspas e barras invertidas, ele precisará ter escape ou ser representado como uma string bruta. Por exemplo, o código return "\n"; pode ser representado como um dos seguintes:

    • String entre aspas"return \"\\n\";". As aspas e as barras invertidas precisam ter escape.
    • String entre três aspas: """return "\\n";""". As barras invertidas precisam ser escapadas, sem aspas.
    • String bruta: r"""return "\n";""". Não é necessário escape.

function_option_list

A lista de opções especifica opções para criar uma UDF. As seguintes opções são compatíveis:

NAME VALUE Detalhes
description

STRING

Uma descrição da UDF.
library

ARRAY<STRING>

Matriz de bibliotecas JavaScript a serem incluídas na definição da função. Aplica-se apenas a UDFs em JavaScript. Para mais informações, consulte Como incluir bibliotecas JavaScript.

Exemplo: ["gs://my-bucket/lib1.js", "gs://my-bucket/lib2.js"]DDL

Exemplos

Criar uma UDF em SQL

No exemplo a seguir, é criada uma UDF em SQL permanente chamada multiplyInputs em um conjunto de dados chamado mydataset.

CREATE FUNCTION mydataset.multiplyInputs(x FLOAT64, y FLOAT64)
RETURNS FLOAT64
AS (x * y);

Criar uma UDF em JavaScript

O exemplo a seguir cria uma UDF em JavaScript temporária chamada multiplyInputs e a chama de dentro de uma instrução SELECT.

CREATE TEMP FUNCTION multiplyInputs(x FLOAT64, y FLOAT64)
RETURNS FLOAT64
LANGUAGE js
AS r"""
  return x*y;
""";

SELECT multiplyInputs(a, b) FROM (SELECT 3 as a, 2 as b);

Instrução CREATE TABLE FUNCTION

Cria uma função de tabela, também chamada de função com valor de tabela (TVF, na sigla em inglês).

CREATE [OR REPLACE] TABLE FUNCTION [IF NOT EXISTS]
  [[project_name.]dataset_name.]function_name
  ( [ function_parameter [, ...] ] )
  [RETURNS TABLE < column_declaration [, ...] > ]
  AS sql_query

function_parameter:
  parameter_name { data_type | ANY TYPE }

column_declaration:
  column_name data_type

Em que:

  • IF NOT EXISTS Cria uma nova função de tabela somente se a função não existir no conjunto de dados especificado. Não pode aparecer com OR REPLACE.
  • OR REPLACE. Substitui qualquer função de tabela com o mesmo nome, se houver. Não pode aparecer com IF NOT EXISTS.
  • project_name: o nome do projeto onde você está criando a função. O padrão é o projeto que executa essa consulta DDL.
  • dataset_name: o nome do conjunto de dados onde você está criando a função.
  • function_name: o nome da função a ser criada.
  • function_parameter: um parâmetro para a função, especificado como um nome de parâmetro e um tipo de dados. O valor de data_type é um tipo de dados do BigQuery escalar ou ANY TYPE.
  • RETURNS TABLE: o esquema da tabela que a função retorna, especificada como uma lista separada por vírgulas de pares de nome de coluna e tipo de dados. Se RETURNS TABLE estiver ausente, o BigQuery inferirá o esquema de saída da instrução de consulta no corpo da função. Se RETURNS TABLE estiver incluído, os nomes no tipo de tabela retornado precisarão corresponder aos nomes das colunas da consulta SQL.
  • AS query: especifica a consulta SQL a ser executada. A consulta SQL precisa incluir nomes para todas as colunas.

Quando possível, o BigQuery força os tipos de argumento. Por exemplo, se o tipo de parâmetro for FLOAT64 e você transmitir um valor INT64, o BigQuery o forçará a um FLOAT64.

Se o tipo de parâmetro for ANY TYPE, a função aceitará uma entrada de qualquer tipo para esse argumento. O tipo que você transmite para a função precisa ser compatível com a definição da função. Se você passar um argumento com um tipo incompatível, a consulta retornará um erro. Se mais de um parâmetro tiver o tipo ANY TYPE, o BigQuery não aplicará qualquer relação de tipo entre eles.

Para mais informações, consulte Funções de tabela.

Exemplos

A função de tabela a seguir usa um parâmetro INT64 que é usado para filtrar os resultados de uma consulta:

CREATE OR REPLACE TABLE FUNCTION mydataset.names_by_year(y INT64)
AS
  SELECT year, name, SUM(number) AS total
  FROM `bigquery-public-data.usa_names.usa_1910_current`
  WHERE year = y
  GROUP BY year, name

O exemplo a seguir especifica o tipo TABLE de retorno na cláusula RETURNS:

CREATE OR REPLACE TABLE FUNCTION mydataset.names_by_year(y INT64)
RETURNS TABLE<name STRING, year INT64, total INT64>
AS
  SELECT year, name, SUM(number) AS total
  FROM `bigquery-public-data.usa_names.usa_1910_current`
  WHERE year = y
  GROUP BY year, name

Instrução CREATE PROCEDURE

Cria um procedimento, que é um bloco de instruções que podem ser chamadas de outras consultas. Para mais informações, consulte Scripts e procedimentos armazenados.

CREATE [OR REPLACE] PROCEDURE [IF NOT EXISTS]
[[project_name.]dataset_name.]procedure_name (procedure_argument[, ...] )
[OPTIONS(procedure_option_list)]
BEGIN
statement_list
END;

procedure_argument: [procedure_argument_mode] argument_name argument_type

procedure_argument_mode: IN | OUT | INOUT

Descrição

project_name é o nome do projeto onde você está criando o procedimento. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados onde você está criando o procedimento. O padrão na solicitação é defaultDataset.

statement_list é uma lista de instruções do BigQuery. Uma lista de instruções é uma série de instruções que terminam com um ponto e vírgula.

argument_type é qualquer tipo válido do BigQuery.

procedure_argument_mode especifica se um argumento é uma entrada, uma saída ou ambas.

Os procedimentos podem ser chamados recursivamente.

procedure_option_list

O procedure_option_list permite especificar opções de procedimento. As opções de procedimento têm a mesma sintaxe e requisitos que as opções de tabela, mas com uma lista diferente de NAMEs e VALUEs:

NAME VALUE Detalhes
strict_mode

BOOL

Exemplo: strict_mode=FALSE

Se strict_mode for TRUE, o corpo do procedimento passará por verificações adicionais de erros, como tabelas ou colunas inexistentes. A instrução CREATE PROCEDURE falhará, se o corpo falhar em alguma dessas verificações.

Embora strict_mode seja útil para capturar muitos tipos comuns de erros, ele não é completo, e a criação bem-sucedida de um procedimento com strict_mode não garante que o procedimento será executado com sucesso no ambiente de execução.

Se strict_mode for FALSE, apenas à sintaxe do corpo do procedimento será verificada. Os procedimentos chamados recorrentemente precisam ser criados com strict_mode=FALSE, para evitar erros causados pelo procedimento que ainda não existem durante a validação.

O valor padrão é TRUE.

Modo de argumento

IN indica que o argumento é somente uma entrada do procedimento. Você pode especificar uma variável ou uma expressão de valor para argumentos IN.

OUT indica que o argumento é uma saída do procedimento. Um argumento OUT é inicializado como NULL junto do procedimento. Para argumentos OUT, é necessário especificar uma variável.

INOUT indica que o argumento é uma entrada e uma saída do procedimento. Para argumentos INOUT, é necessário especificar uma variável. Um argumento INOUT pode ser referenciado no corpo de um procedimento como uma variável e novos valores atribuídos.

Se não forem especificados IN, OUT nem INOUT, o argumento é tratado como IN.

Escopo de variáveis

Se uma variável for declarada fora de um procedimento, passar o argumento INOUT ou OUT para um procedimento e esse procedimento atribuir um novo valor à variável, esse novo valor fica visível fora do procedimento.

Os valores declarados em um procedimento não são visíveis fora do procedimento e vice-versa.

Um argumento OUT ou INOUT pode ser atribuído a um valor usando SET. Nesse caso, o valor modificado é visível fora do procedimento. Se o procedimento sair com sucesso, o valor do argumento OUT ou INOUT será o valor final atribuído à variável INOUT.

Tabelas temporárias existem enquanto o script durar. Por isso, se um procedimento cria uma tabela temporária, o autor da chamada do procedimento também poderá referenciar a tabela temporária.

Projeto padrão no corpo do procedimento

Corpos de procedimentos podem referenciar entidades sem especificar o projeto. O projeto padrão é o proprietário do procedimento, não necessariamente o projeto usado para executar a instrução CREATE PROCEDURE. Considere o exemplo de consulta abaixo.

CREATE PROCEDURE myProject.myDataset.QueryTable()
BEGIN
  SELECT * FROM anotherDataset.myTable;
END;

Depois de criar o procedimento acima, execute a consulta CALL myProject.myDataset.QueryTable(). Independentemente do projeto escolhido para executar essa consulta CALL, a tabela referenciada anotherDataset.myTable é sempre resolvida em relação ao projeto myProject.

Exemplos

No exemplo a seguir, criaremos um procedimento que usa x como argumento de entrada e retorna x como saída. Como não há um modo para o argumento delta, ele é um argumento de entrada. O procedimento é composto por um bloco com uma única instrução, que atribui a soma dos dois argumentos de entrada a x.

CREATE PROCEDURE mydataset.AddDelta(INOUT x INT64, delta INT64)
BEGIN
  SET x = x + delta;
END;

No exemplo a seguir, é chamado o procedimento AddDelta do exemplo acima, passando a variável accumulator nas duas vezes. Como as alterações em x dentro de AddDelta são visíveis fora de AddDelta, essas chamadas de procedimento têm um incremento accumulator de 8.

DECLARE accumulator INT64 DEFAULT 0;
CALL mydataset.AddDelta(accumulator, 5);
CALL mydataset.AddDelta(accumulator, 3);
SELECT accumulator;

Isso retorna o resultado a seguir:

+-------------+
| accumulator |
+-------------+
|           8 |
+-------------+

No exemplo a seguir, criaremos o procedimento SelectFromTablesAndAppend, que leva target_date como um argumento de entrada e retorna rows_added como saída. O procedimento cria uma tabela temporária DataForTargetDate a partir de uma consulta. Em seguida, ele calcula o número de linhas em DataForTargetDate e atribui o resultado a rows_added. Em seguida, ele insere uma nova linha em TargetTable, passando o valor de target_date como um dos nomes de coluna. Por fim, ele descarta a tabela DataForTargetDate e retorna rows_added.

CREATE PROCEDURE mydataset.SelectFromTablesAndAppend(
  target_date DATE, OUT rows_added INT64)
BEGIN
  CREATE TEMP TABLE DataForTargetDate AS
  SELECT t1.id, t1.x, t2.y
  FROM dataset.partitioned_table1 AS t1
  JOIN dataset.partitioned_table2 AS t2
  ON t1.id = t2.id
  WHERE t1.date = target_date
    AND t2.date = target_date;

  SET rows_added = (SELECT COUNT(*) FROM DataForTargetDate);

  SELECT id, x, y, target_date  -- note that target_date is a parameter
  FROM DataForTargetDate;

  DROP TABLE DataForTargetDate;
END;

No exemplo a seguir, declaramos uma variável rows_added e a transmitimos como um argumento ao procedimento SelectFromTablesAndAppend do exemplo anterior com o valor de CURRENT_DATE. Em seguida, é retornada uma mensagem informando quantas linhas foram adicionadas.

DECLARE rows_added INT64;
CALL mydataset.SelectFromTablesAndAppend(CURRENT_DATE(), rows_added);
SELECT FORMAT('Added %d rows', rows_added);

Instrução CREATE ROW ACCESS POLICY

Use os comandos a seguir na instrução DDL para criar ou substituir uma política de acesso no nível da linha. As políticas de acesso no nível da linha em uma tabela precisam ter nomes exclusivos.

Sintaxe

  {CREATE ROW ACCESS POLICY | CREATE ROW ACCESS POLICY IF NOT EXISTS |
  CREATE OR REPLACE ROW ACCESS POLICY}
  row_access_policy_name ON table_name
  [GRANT TO (grantee_list)]
  FILTER USING (filter_expression);

Em que:

  • row_access_policy_name: o nome da política de acesso no nível da linha que você está criando. O nome da política de acesso na linha precisa ser exclusivo para cada tabela. O nome da política de acesso no nível da linha:

    • Até 256 caracteres.
    • Letras (maiúsculas e minúsculas), números e sublinhados. Precisa começar com uma letra.
  • table_name: o nome da tabela em que você quer criar uma política de acesso na linha. A tabela já deve existir.

  • grantee_list: GRANT TO é uma cláusula opcional que especifica os membros iniciais com que a política de acesso no nível da linha precisa ser criada.

    grantee_list é uma lista de usuários ou grupos iam_member. As strings precisam ser participantes do IAM válidos, ou membros, seguindo o formato de um membro da política de vinculação de políticas e precisam ser citadas. Veja a seguir os tipos compatíveis:

    Tipos grantee_list
    user:{emailid}

    Um endereço de e-mail que representa uma Conta do Google específica.

    Exemplo: user:alice@example.com

    serviceAccount:{emailid}

    Um endereço de e-mail que representa uma conta de serviço.

    Exemplo: serviceAccount:my-other-app@appspot.gserviceaccount.com

    group:{emailid}

    Um endereço de e-mail que representa um grupo do Google.

    Exemplo: group:admins@example.com

    domain:{domain}

    O domínio do Google Workspace (principal) que representa todos os usuários dele.

    Exemplo: domain:example.com

    allAuthenticatedUsers Um identificador especial que representa todas as contas de serviço e todos os usuários na Internet que se autenticaram com uma Conta do Google. Esse identificador inclui contas que não estão conectadas a um domínio do Google Workspace ou do Cloud Identity, como contas pessoais do Gmail. Os usuários que não forem autenticados, como os visitantes anônimos, não serão incluídos.
    allUsers Um identificador especial que representa qualquer pessoa na Internet, incluindo usuários autenticados e não autenticados. Como o BigQuery exige autenticação antes que um usuário possa acessar o serviço, allUsers inclui apenas usuários autenticados.

    É possível combinar uma série de valores iam_member, se eles forem separados por vírgulas e estiverem entre aspas separadamente. Por exemplo: "user:alice@example.com","group:admins@example.com","user:sales@example.com"

  • filter_expression: define o subconjunto de linhas da tabela a ser exibido apenas para os membros do grantee_list. O filter_expression é semelhante à cláusula WHERE em uma consulta SELECT.

    As funções a seguir são válidas para usar na expressão de filtro:

    • funções escalares SQL padrão do BigQuery, funções agregadas, funções analíticas.
    • SESSION_USER(), para restringir o acesso apenas a linhas que pertençam ao usuário que está executando a consulta. Se nenhuma das políticas de acesso no nível da linha for aplicável ao usuário que fez a consulta, ele não terá acesso aos dados na tabela.

    A expressão de filtro não pode conter:

    • uma referência a uma tabela;
    • subconsultas ou instruções SQL, como SELECT, CREATE ou UPDATE;
    • funções definidas pelo usuário.

Exemplos

Como criar uma política de acesso de linha e modificar os beneficiários posteriormente

   CREATE ROW ACCESS POLICY My_apac_filter
   ON project.dataset.My_table
   GRANT TO ("user:abc@example.com")
   FILTER USING (region = "apac");
   CREATE OR REPLACE ROW ACCESS POLICY My_apac_filter
   ON project.dataset.My_table
   GRANT TO ("user:xyz@example.com")
   FILTER USING (region = "apac");

Como criar uma política de acesso de linha com vários beneficiários

   CREATE ROW ACCESS POLICY My_us_filter
   ON project.dataset.My_table
   GRANT TO ("user:john@example.com", "group:sales-us@example.com", "group:sales-managers@example.com")
   FILTER USING (region = "us");

Como criar uma política de acesso de linha com allAuthenticatedUsers como beneficiário

   CREATE ROW ACCESS POLICY My_us_filter
   ON project.dataset.My_table
   GRANT TO ("allAuthenticatedUsers")
   FILTER USING (region = "us");

Como criar uma política de acesso de linha com um filtro com base no usuário atual

   CREATE ROW ACCESS POLICY My_row_filter
   ON dataset.My_table
   GRANT TO ("domain:example.com")
   FILTER USING (email = SESSION_USER());

Como criar uma política de acesso de linha com um filtro em uma coluna com um tipo ARRAY

   CREATE ROW ACCESS POLICY My_reports_filter
   ON project.dataset.My_table
   GRANT TO ("domain:example.com")
   FILTER USING (SESSION_USER() IN UNNEST(reporting_chain));

Instrução ALTER SCHEMA SET OPTIONS

Define opções em um conjunto de dados.

A instrução será executada no local do conjunto de dados, se ele existir, a menos que você especifique o local nas configurações da consulta. Para mais informações, consulte Como especificar seu local.

ALTER SCHEMA [IF EXISTS]
[project_name.]dataset_name
SET OPTIONS(schema_set_options_list)

Em que:

  • IF EXISTS: se você incluir essa cláusula e o conjunto de dados especificado não existir, a instrução será bem-sucedida sem ação. Se você omitir essa cláusula e o conjunto de dados não existir, a instrução retornará um erro.

  • project_name é o nome do projeto que contém o conjunto de dados. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados.

  • schema_set_options_list especifica a lista de opções a serem definidas.

schema_set_options_list

A lista de opções especifica opções para o conjunto de dados. Especifique as opções no seguinte formato: NAME=VALUE, ...

As seguintes opções são compatíveis:

NAME VALUE Detalhes
default_kms_key_name STRING Especifica a chave padrão do Cloud KMS para criptografar dados da tabela neste conjunto de dados. É possível modificar esse valor ao criar uma tabela.
default_partition_expiration_days FLOAT64 Especifica o prazo de validade padrão, em dias, para partições de tabela nesse conjunto de dados. É possível modificar esse valor ao criar uma tabela.
default_table_expiration_days FLOAT64 Especifica o prazo de validade padrão, em dias, das tabelas neste conjunto de dados. É possível modificar esse valor ao criar uma tabela.
description STRING A descrição do conjunto de dados.
friendly_name STRING Um nome descritivo do conjunto de dados.
labels <ARRAY<STRUCT<STRING, STRING>>> Uma matriz de rótulos para o conjunto de dados, expressa como pares de chave-valor.
location STRING O local em que o conjunto de dados será criado. Se você não especificar essa opção, o conjunto de dados será criado no local em que a consulta será executada. Se você especificar essa opção e também definir explicitamente o local do job de consulta, os dois valores precisam corresponder; caso contrário, a consulta falhará.

Exemplo

No exemplo a seguir, definimos a expiração da tabela padrão.

ALTER SCHEMA mydataset
SET OPTIONS(
  default_table_expiration_days=3.75
  )

Instrução ALTER TABLE SET OPTIONS

Para definir as opções de uma tabela no BigQuery, use a instrução DDL ALTER TABLE SET OPTIONS.

ALTER TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name
SET OPTIONS(table_set_options_list)

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a tabela especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

project_name é o nome do projeto que contém a tabela que você está alterando. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a tabela que você está alterando. O padrão na solicitação é defaultDataset.

table_name é o nome da tabela que você está alterando.

Essa instrução não é compatível com tabelas externas.

table_set_options_list

A lista de opções permite que você defina opções de tabela, como um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de tabela no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

partition_expiration_days

FLOAT64

Exemplo: partition_expiration_days=7

Define a validade da partição em dias. Para mais informações, consulte Definir a validade da partição. Por padrão, as partições não expiram.

Essa propriedade é equivalente à propriedade de recurso de tabela timePartitioning.expirationMs, mas usa dias em vez de milissegundos. Um dia é equivalente a 86.400.000 milissegundos, ou 24 horas.

Só é possível definir essa propriedade se a tabela for particionada.

require_partition_filter

BOOL

Exemplo: require_partition_filter=true

Especifica se as consultas nesta tabela precisam incluir um filtro de predicado que filtre na coluna de particionamento. Para mais informações, consulte Definir requisitos de filtro de partição. O valor padrão é false.

Essa propriedade é equivalente à propriedade de recurso de tabela timePartitioning.requirePartitionFilter.

Só é possível definir essa propriedade se a tabela for particionada.

kms_key_name

STRING

Exemplo: kms_key_name="projects/project_id/locations/location/keyRings/keyring/cryptoKeys/key"

Essa propriedade é equivalente à propriedade de recurso de tabela encryptionConfiguration.kmsKeyName.

Consulte mais detalhes sobre Como proteger dados com chaves do Cloud KMS.

friendly_name

STRING

Exemplo: friendly_name="my_table"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a table that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for avaliada como null, a opção correspondente NAME será ignorada.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • as funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

A definição de VALUE substitui o valor atual dessa opção para a tabela (se havia um). Definir o VALUE como NULL limpa o valor da tabela para essa opção.

Exemplos

Como configurar o carimbo de data e hora de validade e descrição em uma tabela

No exemplo a seguir, o carimbo de data/hora de validade em uma tabela é definido como sete dias a partir do horário da execução da instrução ALTER TABLE, e a descrição também é definida:

ALTER TABLE mydataset.mytable
SET OPTIONS (
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 7 DAY),
  description="Table that expires seven days from now"
)

Como configurar o atributo "require partition filter" em uma tabela particionada

No exemplo a seguir, definimos o atributo timePartitioning.requirePartitionFilter em uma tabela particionada .

ALTER TABLE mydataset.mypartitionedtable
SET OPTIONS (require_partition_filter=true)

As consultas que fazem referência a essa tabela precisam usar um filtro na coluna de particionamento. Caso contrário, o BigQuery retorna um erro. Definir essa opção como true pode ajudar a evitar erros na consulta de mais dados do que o pretendido.

Como apagar o carimbo de data e hora de expiração em uma tabela

No exemplo a seguir, limpamos o carimbo de data/hora de validade em uma tabela para que ela não expire:

ALTER TABLE mydataset.mytable
SET OPTIONS (expiration_timestamp=NULL)

Instrução ALTER TABLE ADD COLUMN

A instrução ALTER TABLE ADD COLUMN adiciona uma ou mais colunas novas a um esquema de tabela existente. Para mais informações sobre modificações de esquema no BigQuery, consulte Como modificar esquemas de tabelas.

ALTER TABLE [[project_name.]dataset_name.]table_name
ADD COLUMN [IF NOT EXISTS] column_name column_schema [, ...]

Em que:

  • project_name é o nome do projeto que contém a tabela. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados que contém a tabela.

  • table_name é o nome da tabela a ser alterada. A tabela já precisa existir e ter um esquema.

  • column_name é o nome da coluna a ser adicionada.

  • column_schema é o esquema da coluna. Esse esquema usa a mesma sintaxe que o esquema de coluna da instrução CREATE TABLE.

Não é possível usar esta instrução para criar:

  • Colunas particionadas.
  • Colunas em cluster.
  • Colunas aninhadas dentro de campos RECORD existentes.

Não é possível adicionar uma coluna REQUIRED a um esquema de tabela existente. No entanto, é possível criar uma coluna REQUIRED aninhada como parte de um novo campo RECORD.

Essa instrução não é compatível com tabelas externas.

Sem a cláusula IF NOT EXISTS, se a tabela já contiver uma coluna com esse nome, a instrução retornará um erro. Se a cláusula IF NOT EXISTS estiver incluída e o nome da coluna já existir, nenhum erro será retornado e nenhuma medida será tomada.

O valor da nova coluna para linhas existentes é definido como um dos seguintes itens:

  • NULL se a nova coluna foi adicionada com o modo NULLABLE. Esse é o modo padrão.
  • Um ARRAY vazio se a nova coluna foi adicionada com o modo REPEATED.

Exemplos

Como adicionar colunas

O exemplo a seguir adiciona as seguintes colunas a uma tabela existente chamada mytable:

  • Coluna A do tipo STRING.
  • Coluna B do tipo GEOGRAPHY.
  • Coluna C do tipo NUMERIC com o modo REPEATED.
  • Coluna D do tipo DATE com uma descrição.
ALTER TABLE mydataset.mytable
  ADD COLUMN A STRING,
  ADD COLUMN IF NOT EXISTS B GEOGRAPHY,
  ADD COLUMN C ARRAY<NUMERIC>,
  ADD COLUMN D DATE OPTIONS(description="my description")

Se qualquer uma das colunas chamadas A, C ou D já existir, a instrução falhará. Se a coluna B já existir, a instrução será bem-sucedida devido à cláusula IF NOT EXISTS.

Como adicionar uma coluna RECORD

O exemplo a seguir adiciona uma coluna chamada A do tipo STRUCT que contém as seguintes colunas aninhadas:

  • Coluna B do tipo GEOGRAPHY.
  • Coluna C do tipo INT64 com o modo REPEATED.
  • Coluna D do tipo INT64 com o modo REQUIRED.
  • Coluna E do tipo TIMESTAMP com uma descrição.
ALTER TABLE mydataset.mytable
   ADD COLUMN A STRUCT<
       B GEOGRAPHY,
       C ARRAY<INT64>,
       D INT64 NOT NULL,
       E TIMESTAMP OPTIONS(description="creation time")
       >

A consulta falhará se a tabela já tiver uma coluna chamada A, mesmo que essa coluna não contenha nenhuma das colunas aninhadas especificadas.

O novo STRUCT denominado A é anulável, mas a coluna aninhada D em A é obrigatória para qualquer valor STRUCT de A.

Instrução ALTER TABLE RENAME TO

Para criar uma tabela no BigQuery, use a instrução DDL ALTER TABLE RENAME TO.

ALTER TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name
RENAME TO new_table_name

Em que:

  • project_name é o nome do projeto que contém o conjunto de dados. O padrão é o projeto que executa essa consulta DDL.
  • dataset_name é o nome do conjunto de dados que contém a tabela;
  • table_name é o nome da tabela a ser alterada.
  • new_table_name é o novo nome da tabela. O novo nome não pode ser um nome de tabela atual.

Se IF EXISTS estiver presente, a consulta será bem-sucedida quando a tabela especificada não existir. Se IF EXISTS estiver ausente, a consulta falhará quando a tabela especificada não existir.

Advertências:

  • Essa instrução não é compatível com tabelas externas.
  • Se você alterar as políticas de tabela ou de acesso no nível da linha ao renomear a tabela, essas alterações talvez não sejam eficazes.
  • Se você quiser renomear uma tabela que tenha streaming de dados, pare o streaming e aguarde o BigQuery indicar que ele não está em uso.

Exemplos

Como renomear uma tabela

No exemplo a seguir, a tabela mydataset.mytable é renomeada como mydataset.mynewtable:

ALTER TABLE mydataset.mytable RENAME TO mynewtable

Instrução ALTER TABLE DROP COLUMN

A instrução ALTER TABLE DROP COLUMN descarta uma ou mais colunas de um esquema de tabela atual. A instrução não libera imediatamente o armazenamento associado à coluna descartada. O armazenamento é reivindicado em segundo plano no período de sete dias a partir do dia em que uma coluna é descartada.

Para informações sobre como reivindicar armazenamento imediatamente, consulte Como excluir uma coluna de um esquema de tabela.

Para mais informações sobre modificações de esquema no BigQuery, consulte Como modificar esquemas de tabelas.

ALTER TABLE [[project_name.]dataset_name.]table_name
DROP COLUMN [IF EXISTS] column_name [, ...]

Em que:

  • project_name é o nome do projeto que contém a tabela. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados que contém a tabela.

  • table_name é o nome da tabela a ser alterada. A tabela já precisa existir e ter um esquema.

  • column_name é o nome da coluna a ser descartada.

Não é possível usar esta instrução para descartar:

  • Colunas particionadas
  • Colunas em cluster
  • Colunas aninhadas dentro de campos RECORD existentes

Essa instrução não é compatível com tabelas externas.

Sem a cláusula IF EXISTS, se a tabela não contiver uma coluna com esse nome, a instrução retornará um erro. Se a cláusula IF EXISTS estiver incluída e o nome da coluna não existir, nenhum erro será retornado e nenhuma ação será tomada.

Essa instrução só remove a coluna da tabela. Todos os objetos que se referirem à coluna, como visualizações ou visualizações materializadas, precisam ser atualizados ou recriados separadamente.

Exemplos

Como descartar colunas

O exemplo a seguir descarta as seguintes colunas de uma tabela existente chamada mytable:

  • Coluna A
  • Coluna B
ALTER TABLE mydataset.mytable
  DROP COLUMN A,
  DROP COLUMN IF EXISTS B

Se a coluna denominada A não existir, a instrução falhará. Se a coluna B não existir, a instrução ainda será bem-sucedida devido à cláusula IF EXISTS.

Instrução ALTER COLUMN SET OPTIONS

Define opções, como a descrição da coluna, em uma coluna de uma tabela no BigQuery.

ALTER TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name
ALTER COLUMN [IF EXISTS] column_name SET OPTIONS(column_set_options_list)

Em que:

(ALTER TABLE) IF EXISTS: se presente, a consulta é bem-sucedida quando a tabela especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

(ALTER COLUMN) IF EXISTS: se presente, a consulta é bem-sucedida quando a coluna especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

project_name é o nome do projeto que contém a tabela que você está alterando. O padrão é o projeto que executa essa consulta. Se o nome do projeto contiver caracteres especiais, como ponto e vírgula, coloque o nome entre acentos graves ` (por exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a tabela que você está alterando. O padrão na solicitação é defaultDataset.

table_name é o nome da tabela que você está alterando.

column_name é o nome da coluna de nível superior que você está alterando. A modificação de subcampos, como colunas aninhadas em um STRUCT, não é aceita.

Essa instrução não é compatível com tabelas externas.

column_set_options_list

Especifique uma lista de opções de coluna no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
description

STRING

Exemplo: description="a table that expires in 2025"

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for null, a opção correspondente NAME será removida.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • as funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

A definição de VALUE substitui o valor atual dessa opção para a tabela (se havia um). Definir o VALUE como NULL limpa o valor da coluna para essa opção.

Exemplos

No exemplo a seguir, definimos uma nova descrição em uma coluna chamada price:

ALTER TABLE mydataset.mytable
ALTER COLUMN price
SET OPTIONS (
  description="Price per unit"
)

Instrução ALTER COLUMN DROP NOT NULL

Remove uma restrição NOT NULL de uma coluna em uma tabela no BigQuery.

ALTER TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name
ALTER COLUMN [IF EXISTS] column DROP NOT NULL

Em que:

(ALTER TABLE) IF EXISTS: se presente, a consulta é bem-sucedida quando a tabela especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

(ALTER COLUMN) IF EXISTS: se presente, a consulta é bem-sucedida quando a coluna especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

project_name é o nome do projeto que contém a tabela que você está alterando. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a tabela que você está alterando. O padrão na solicitação é defaultDataset.

table_name é o nome da tabela que você está alterando.

column_name é o nome da coluna de nível superior que você está alterando. Não é possível modificar subcampos.

Se uma coluna não tiver uma restrição NOT NULL, a consulta retornará um erro.

Essa instrução não é compatível com tabelas externas.

Exemplos

No exemplo a seguir, a restrição NOT NULL é removida de uma coluna chamada mycolumn:

ALTER TABLE mydataset.mytable
ALTER COLUMN mycolumn
DROP NOT NULL

Instrução ALTER COLUMN SET DATA TYPE

Altera o tipo de dados de uma coluna em uma tabela no BigQuery para um tipo de dados menos restritivo. Por exemplo, um tipo de dados NUMERIC pode ser alterado para um tipo BIGNUMERIC, mas não o inverso. Para uma tabela com coerções de tipo de dados válidas, compare a coluna "Do tipo" com a coluna "Coerção para" na página Regras de conversão no SQL padrão.

Veja a seguir exemplos de coerções de tipo de dados válidas:

  • INT64 a NUMERIC, BIGNUMERIC, FLOAT64
  • NUMERIC a BIGNUMERIC, FLOAT64
ALTER TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name
ALTER COLUMN [IF EXISTS] column_name SET DATA TYPE data_type

Em que:

  • project_name é o nome do projeto que contém a tabela que você está alterando. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

  • dataset_name é o nome do conjunto de dados que contém a tabela que você está alterando. O padrão na solicitação é defaultDataset.

  • table_name é o nome da tabela que você está alterando.

  • column_name é o nome da coluna de nível superior que você está alterando. Não é possível modificar subcampos.

  • data_type é o tipo para o qual você está convertendo a coluna.

Essa instrução não é compatível com tabelas externas.

Sem a cláusula IF EXISTS, se a tabela não contiver uma coluna com esse nome, a instrução retornará um erro. Se a cláusula IF EXISTS for incluída e o nome da coluna não existir, nenhum erro será retornado e nenhuma ação será tomada.

Você também pode fazer a coerção dos tipos de dados parametrizados mais restritivos para os menos restritivos. Por exemplo, é possível aumentar o comprimento máximo de um tipo de string, bem como a precisão ou a escala de um tipo numérico.

Veja a seguir exemplos de alterações de tipo de dados parametrizados válidas:

  • NUMERIC(6,10) a NUMERIC(8,12)
  • NUMERIC a BIGNUMERIC(40, 20)
  • STRING(5) a STRING(7)

Exemplos

O exemplo a seguir altera o tipo de dados da coluna c1 de INT64 para NUMERIC:

CREATE TABLE dataset.table(c1 INT64);

ALTER TABLE dataset.table ALTER COLUMN c1 SET DATA TYPE NUMERIC;

O exemplo a seguir altera o tipo de dados de um dos campos na coluna s1:

CREATE TABLE dataset.table(s1 STRUCT<a INT64, b STRING>);

ALTER TABLE dataset.table ALTER COLUMN s1
SET DATA TYPE STRUCT<a NUMERIC, b STRING>;

O exemplo a seguir altera a precisão de uma coluna de tipo de dados parametrizados:

CREATE TABLE dataset.table (pt NUMERIC(7,2));

ALTER TABLE dataset.table
ALTER COLUMN pt
SET DATA TYPE NUMERIC(8,2);

Instrução ALTER VIEW SET OPTIONS

Para definir as opções de uma visualização no BigQuery, use a instrução DDL ALTER VIEW SET OPTIONS.

ALTER VIEW [IF EXISTS] [[project_name.]dataset_name.]view_name
SET OPTIONS(view_set_options_list)

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a visualização especificada não existe. Se ausente, a consulta falhará quando a visualização especificada não existir.

project_name é o nome do projeto que contém a visualização que você está alterando. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a visualização que você está alterando. O padrão na solicitação é defaultDataset.

view_name é o nome da visualização que você está alterando.

view_set_options_list

A lista de opções permite que você defina opções de visualização, como um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de visualização no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

friendly_name

STRING

Exemplo: friendly_name="my_view"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a view that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

VALUE é uma expressão constante que contém apenas literais, parâmetros de consulta e funções escalares. Se a expressão constante for avaliada como null, a opção correspondente NAME será ignorada.

A expressão constante não pode conter os itens a seguir:

  • Uma referência a uma tabela
  • Subconsultas ou instruções SQL, como SELECT, CREATE e UPDATE
  • funções definidas pelo usuário, funções agregadas ou funções analíticas
  • as funções escalares a seguir:
    • ARRAY_TO_STRING
    • REPLACE
    • REGEXP_REPLACE
    • RAND
    • FORMAT
    • LPAD
    • RPAD
    • REPEAT
    • SESSION_USER
    • GENERATE_ARRAY
    • GENERATE_DATE_ARRAY

A definição de VALUE substitui o valor atual dessa opção para a visualização (se havia um). Definir o VALUE como NULL limpa o valor da visualização para essa opção.

Exemplos

Como configurar o carimbo de data e hora de expiração e descrição em uma visualização

No exemplo a seguir, definimos o carimbo de data/hora de validade em uma visualização como sete dias a partir do horário da execução da instrução ALTER VIEW e também definimos a descrição:

ALTER VIEW mydataset.myview
SET OPTIONS (
  expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 7 DAY),
  description="View that expires seven days from now"
)

Instrução ALTER MATERIALIZED VIEW SET OPTIONS

Para definir as opções em uma visualização materializada no BigQuery, use a instrução DDL ALTER MATERIALIZED VIEW SET OPTIONS.

ALTER MATERIALIZED VIEW [IF EXISTS] [[project_name.]dataset_name.]materialized_view_name
SET OPTIONS(materialized_view_set_options_list)

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a visualização especificada não existe. Se ausente, a consulta falhará quando a visualização especificada não existir.

project_name é o nome do projeto que contém a visualização materializada que você está alterando. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a visualização materializada que você está alterando. O padrão na solicitação é defaultDataset.

materialized_view_name é o nome da visualização materializada que você está alterando.

materialized_view_set_options_list

A lista de opções permite que você defina opções de visualização materializadas, como a ativação e o intervalo de atualização, um rótulo e um prazo de validade. Para incluir várias opções, use uma lista separada por vírgulas.

Especifique uma lista de opções de visualização materializada no formato a seguir:

NAME=VALUE, ...

NAME e VALUE precisam ser uma das combinações a seguir:

NAME VALUE Detalhes
enable_refresh BOOLEAN

Exemplo: enable_refresh=false

refresh_interval_minutes FLOAT64

Exemplo: refresh_interval_minutes=20

expiration_timestamp TIMESTAMP

Exemplo: expiration_timestamp=TIMESTAMP "2025-01-01 00:00:00 UTC"

Essa propriedade é equivalente à propriedade de recurso de tabela expirationTime.

friendly_name

STRING

Exemplo: friendly_name="my_mv"

Essa propriedade é equivalente à propriedade de recurso de tabela friendlyName.

description

STRING

Exemplo: description="a materialized view that expires in 2025"

Essa propriedade é equivalente à propriedade de recurso de tabela description.

labels

ARRAY<STRUCT<STRING, STRING>>

Exemplo: labels=[("org_unit", "development")]

Essa propriedade é equivalente à propriedade de recurso de tabela labels.

A configuração de VALUE substitui o valor existente dessa opção para a visualização materializada, se houver. Definir o VALUE como NULL limpa o valor da visualização materializada para essa opção.

Exemplos

Como definir o estado e o intervalo de atualização em uma visualização materializada

O exemplo a seguir ativa a atualização e define o intervalo dela para 20 minutos em uma visualização materializada:

ALTER MATERIALIZED VIEW mydataset.my_mv
SET OPTIONS (
  enable_refresh=true,
  refresh_interval_minutes=20
)

Instrução DROP SCHEMA

Exclui um conjunto de dados.

A instrução será executada no local do conjunto de dados, se ele existir, a menos que você especifique o local nas configurações da consulta. Para mais informações, consulte Como especificar seu local.

DROP SCHEMA [IF EXISTS]
[project_name.]dataset_name
[ CASCADE | RESTRICT ]

Em que:

  • IF EXISTS: se você incluir essa cláusula e o conjunto de dados especificado não existir, a instrução será bem-sucedida sem ação. Se você omitir essa cláusula e o conjunto de dados não existir, a instrução retornará um erro.

  • project_name é o nome do projeto que contém o conjunto de dados. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados a ser excluído.

  • CASCADE: exclui o conjunto de dados e todos os recursos dentro do conjunto de dados, como tabelas, visualizações e funções. Você precisa ter permissão para excluir os recursos ou o comando retornará um erro. Para uma lista de permissões do BigQuery, consulte Papéis e permissões predefinidos.

  • RESTRICT: só exclui o conjunto de dados se ele estiver vazio. Caso contrário, retornará um erro.

Se você não especificar CASCADE ou RESTRICT, o comportamento padrão será RESTRICT.

Exemplos

No exemplo a seguir, o conjunto de dados chamado mydataset é excluído. Se o conjunto de dados não existir ou não estiver vazio, a instrução retornará um erro.

DROP SCHEMA mydataset

No exemplo a seguir, o conjunto de dados chamado mydataset e os recursos nele são descartados. Se o conjunto de dados não existir, nenhum erro será retornado.

DROP SCHEMA IF EXISTS mydataset CASCADE

Instrução DROP TABLE

Para excluir uma tabela no BigQuery, use a instrução DDL DROP TABLE.

DROP TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a tabela especificada não existe. Se ausente, a consulta falhará quando a tabela especificada não existir.

project_name é o nome do projeto que contém a tabela a ser excluída. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a tabela a ser excluída. O padrão na solicitação é defaultDataset.

table_name: o nome da tabela a ser excluída.

Exemplos

Como excluir tabelas

No exemplo a seguir, uma tabela chamada mytable no mydataset é excluída:

DROP TABLE mydataset.mytable

Se o nome da tabela não existir no conjunto de dados, o erro a seguir será retornado:

Error: Not found: Table myproject:mydataset.mytable

Como excluir uma tabela somente se ela existir

O exemplo a seguir exclui uma tabela chamada mytable em mydataset somente se a tabela existir. Se o nome da tabela não existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será tomada.

DROP TABLE IF EXISTS mydataset.mytable

Instrução DROP SNAPSHOT TABLE

Para excluir um snapshot da tabela do BigQuery, use a instrução DDL DROP SNAPSHOT TABLE.

DROP SNAPSHOT TABLE [IF EXISTS]
[[project_name.]dataset_name.]table_snapshot_name

Em que:

IF EXISTS: se presente, a consulta será bem-sucedida quando o snapshot da tabela especificada não existir. Se ausente, a consulta falhará quando o snapshot da tabela especificada não existir.

project_name é o nome do projeto que contém o snapshot da tabela a ser excluído. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto contiver caracteres especiais, como dois pontos, coloque-o entre crases ` (exemplo: `google.com:my_project` ).

dataset_name é o nome do conjunto de dados que contém o snapshot da tabela a ser excluído. O padrão na solicitação é defaultDataset.

table_snapshot_name: o nome do snapshot da tabela a ser excluído.

Exemplos

Excluir um snapshot da tabela: falha se não existir

No exemplo a seguir, o snapshot da tabela chamado mytablesnapshot no conjunto de dados mydataset é excluído:

DROP SNAPSHOT TABLE mydataset.mytablesnapshot

Se o snapshot da tabela não existir no conjunto de dados, o erro a seguir será retornado:

Error: Not found: Table snapshot myproject:mydataset.mytablesnapshot

Excluir um snapshot da tabela: ignorar se não existir

No exemplo a seguir, o snapshot da tabela chamado mytablesnapshot no conjunto de dados mydataset é excluído.

DROP SNAPSHOT TABLE IF EXISTS mydataset.mytablesnapshot

Se o snapshot da tabela não existir no conjunto de dados, nenhuma ação será tomada e nenhum erro será retornado.

Para informações sobre como criar snapshots de tabelas, consulte CRIAR TABELA DE SNAPSHOT.

Para informações sobre como restaurar snapshots de tabelas, consulte CRIAR CLONE DE TABELA.

Instrução DROP EXTERNAL TABLE

A instrução DROP EXTERNAL TABLE exclui uma tabela externa.

DROP EXTERNAL TABLE [IF EXISTS] [[project_name.]dataset_name.]table_name

Em que:

  • project_name é o nome do projeto que contém a tabela. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name é o nome do conjunto de dados que contém a tabela.

  • table_name é o nome da tabela a ser excluída.

Sem a cláusula IF EXISTS, se a tabela externa não existir, a instrução retornará um erro. Se a cláusula IF EXISTS estiver incluída e a tabela não existir, nenhum erro será retornado e nenhuma medida será tomada.

Se table_name existir, mas não for uma tabela externa, a instrução retornará o seguinte erro:

Cannot drop table_name which has type TYPE. An external table was expected.

A instrução DROP EXTERNAL só remove a definição de tabela externa do BigQuery. Os dados armazenados no local externo não são afetados.

Exemplos

O exemplo a seguir descarta a tabela externa denominada external_table do conjunto de dados mydataset. Ela retornará um erro se a tabela externa não existir.

DROP EXTERNAL TABLE mydataset.external_table

O exemplo a seguir descarta a tabela externa denominada external_table do conjunto de dados mydataset. Se a tabela externa não existir, nenhum erro será retornado.

DROP EXTERNAL TABLE IF EXISTS mydataset.external_table

Instrução DROP VIEW

Para excluir uma visualização no BigQuery, use a instrução DDL DROP VIEW.

DROP VIEW [IF EXISTS] [[project_name.]dataset_name.]view_name

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a visualização especificada não existe. Se ausente, a consulta falhará quando a visualização especificada não existir.

project_name é o nome do projeto que contém a visualização a ser excluída. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a visualização a ser excluída. O padrão na solicitação é defaultDataset.

view_name é o nome da visualização que você está excluindo.

Exemplos

Como excluir uma visualização

No exemplo a seguir, uma visualização chamada myview em mydataset é excluída:

DROP VIEW mydataset.myview

Se o nome da visualização não existir no conjunto de dados, o erro a seguir será retornado:

Error: Not found: Table myproject:mydataset.myview

Como excluir uma visualização somente se ela existir

O exemplo a seguir exclui uma visualização chamada myview em mydataset somente se a visualização existir. Se o nome da visualização não existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será tomada.

DROP VIEW IF EXISTS mydataset.myview

Instrução DROP MATERIALIZED VIEW

Para excluir uma visualização materializada no BigQuery, use a instrução DDL DROP MATERIALIZED VIEW.

DROP MATERIALIZED VIEW [IF EXISTS] [[project_name.]dataset_name.]mv_name

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a visualização materializada especificada não existe. Se ausente, a consulta falhará quando a visualização materializada especificada não existir.

project_name é o nome do projeto que contém a visualização materializada a ser excluída. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a visualização materializada a ser excluída. O padrão na solicitação é defaultDataset.

mv_name é o nome da visualização materializada que você está excluindo.

Exemplos

Como excluir uma visualização materializada

O exemplo a seguir exclui uma visualização materializada chamada my_mv em mydataset:

DROP MATERIALIZED VIEW mydataset.my_mv

Se o nome da visualização materializada não existir no conjunto de dados, o seguinte erro será retornado:

Error: Not found: Table myproject:mydataset.my_mv

Se você estiver excluindo uma visualização materializada em outro projeto, especifique o projeto, o conjunto de dados e a visualização materializada no seguinte formato: `project_id.dataset.materialized_view` (incluindo crases, se project_id tiver caracteres especiais); por exemplo, `myproject.mydataset.my_mv`.

Como excluir uma visualização materializada apenas se ela existir

O exemplo a seguir exclui uma visualização materializada chamada my_mv no mydatasetsomente se a visualização materializada existir. Se o nome dela não existir no conjunto de dados, nenhum erro será retornado e nenhuma ação será realizada.

DROP MATERIALIZED VIEW IF EXISTS mydataset.my_mv

Se você estiver excluindo uma visualização materializada em outro projeto, especifique o projeto, o conjunto de dados e a visualização materializada no seguinte formato: `project_id.dataset.materialized_view`, (incluindo crases, se project_id tiver caracteres especiais); por exemplo, `myproject.mydataset.my_mv`.

Instrução DROP FUNCTION

DROP FUNCTION [IF EXISTS] [[project_name.]dataset_name.]function_name

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando a função especificada não existe. Se ausente, a consulta falhará quando a função especificada não existir.

project_name é o nome do projeto que contém a função a ser excluída. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém a função a ser excluída. O padrão na solicitação é defaultDataset.

function_name é o nome da função que você está excluindo.

Exemplos

A instrução de exemplo a seguir exclui a função parseJsonAsStruct contida no conjunto de dados mydataset.

DROP FUNCTION mydataset.parseJsonAsStruct;

A instrução de exemplo a seguir exclui a função parseJsonAsStruct do conjunto de dados sample_dataset no projeto other_project.

DROP FUNCTION `other_project`.sample_dataset.parseJsonAsStruct;

DROP TABLE FUNCTION

Exclui uma função de tabela.

DROP TABLE FUNCTION [IF EXISTS] [[project_name.]dataset_name.]function_name

Em que:

  • IF EXISTS: se não houver nenhuma função de tabela com esse nome, a instrução não terá efeito.

  • project_name: o nome do projeto que contém a função da tabela a ser excluída. O padrão é o projeto que executa essa consulta DDL.

  • dataset_name: o nome do conjunto de dados que contém a função da tabela a ser excluída.

  • function_name: o nome da função da tabela a ser excluída.

Exemplo

No exemplo a seguir, uma função de tabela chamada my_table_function é excluída:

DROP TABLE FUNCTION mydataset.my_table_function;

Instrução DROP PROCEDURE

DROP PROCEDURE [IF EXISTS] [[project_name.]dataset_name.]procedure_name

Em que:

IF EXISTS: se presente, a consulta é bem-sucedida quando o procedimento especificado não existe. Se ausente, a consulta falhará quando o procedimento especificado não existir.

project_name é o nome do projeto que contém o procedimento a ser excluído. O padrão é o projeto que executa essa consulta DDL. Se o nome do projeto tiver caracteres especiais, como dois pontos, ele deverá estar entre crases ` (exemplo: `google.com:my_project`).

dataset_name é o nome do conjunto de dados que contém o procedimento a ser excluído. O padrão na solicitação é defaultDataset.

procedure_name é o nome do procedimento que você está excluindo.

Exemplos

A instrução de exemplo a seguir exclui o procedimento myprocedure contido no conjunto de dados mydataset.

DROP PROCEDURE mydataset.myProcedure;

A instrução de exemplo a seguir exclui o procedimento myProcedure do conjunto de dados sample_dataset no projeto other_project.

DROP PROCEDURE `other-project`.sample_dataset.myprocedure;

Instrução DROP ROW ACCESS POLICY

Para excluir uma política de acesso no nível da linha, use os seguintes comandos na instrução DDL.

Sintaxe

{DROP ROW ACCESS POLICY | DROP ROW ACCESS POLICY IF EXISTS}
row_access_policy_name ON table_name;
DROP ALL ROW ACCESS POLICIES ON table_name;

Em que:

  • row_access_policy_name: o nome da política de acesso no nível da linha que você está excluindo. Cada política de acesso no nível da linha em uma tabela tem um nome exclusivo.

  • table_name: o nome da tabela com a política de acesso no nível da linha ou as políticas que você quer excluir.

Exemplos

Como excluir uma política de acesso no nível da linha de uma tabela

   DROP ROW ACCESS POLICY My_row_filter ON project.dataset.My_table;

Como excluir todas as políticas de acesso no nível da linha de uma tabela

   DROP ALL ROW ACCESS POLICIES ON project.dataset.My_table;