Exportar resultados de consulta para o Blob Storage

Este documento descreve como exportar o resultado de uma consulta executada em uma tabela do BigLake para o Armazenamento de Blobs do Azure.

Para informações sobre como os dados fluem entre o BigQuery e o Armazenamento de Blobs do Azure, consulte Fluxo de dados ao exportar dados.

Antes de começar

Confira se você tem os seguintes recursos:

Exportar resultados da consulta

O BigQuery Omni grava no local do Armazenamento de Blobs especificado, independentemente do conteúdo existente. A consulta de exportação pode substituir os dados ou combinar o resultado da consulta com os dados existentes. Recomendamos que você exporte o resultado da consulta para um contêiner vazio do Armazenamento de blobs.

  1. No Console do Google Cloud, acesse a página BigQuery.

    Ir para o BigQuery

  2. No campo Editor de consultas, insira uma consulta de exportação do GoogleSQL:

    EXPORT DATA WITH CONNECTION \`CONNECTION_REGION.CONNECTION_NAME\`
    OPTIONS(
      uri="azure://AZURE_STORAGE_ACCOUNT_NAME.blob.core.windows.net/CONTAINER_NAME/FILE_PATH/*",
      format="FORMAT"
    )
    AS QUERY
    

    Substitua:

    • CONNECTION_REGION: a região em que a conexão foi criada.
    • CONNECTION_NAME: o nome da conexão que você criou com a permissão necessária para gravar no contêiner.
    • AZURE_STORAGE_ACCOUNT_NAME: o nome da conta do Armazenamento de blobs em que você quer gravar o resultado da consulta.
    • CONTAINER_NAME: o nome do contêiner em que você quer gravar o resultado da consulta.
    • FILE_PATH: o caminho em que você quer gravar o arquivo exportado. Ele precisa conter exatamente um caractere curinga * em qualquer lugar no diretório da string do caminho, por exemplo, ../aa/*, ../aa/b*c, ../aa/*bc e ../aa/bc*. O BigQuery substitui * por 0000..N dependendo do número de arquivos exportados. O BigQuery determina a contagem e os tamanhos de arquivos. Se o BigQuery decidir exportar dois arquivos, o * no primeiro nome do arquivo será substituído por 000000000000, e o * no segundo nome do arquivo, substituído por 000000000001:
    • FORMAT: os formatos compatíveis são JSON, AVRO e CSV e PARQUET
    • QUERY: a consulta para analisar os dados armazenados em uma tabela do BigLake.

Solução de problemas

Se você receber um erro relacionado a quota failure, verifique se tem reserva de capacidade para as consultas. Para mais informações sobre reservas de slot, consulte Antes de começar neste documento.

Limitações

Para acessar uma lista completa de limitações que se aplicam a tabelas do BigLake baseadas no Amazon S3 e no Armazenamento de Blobs, consulte Limitações.

A seguir