Exportar resultados de consulta para o Amazon S3
Neste documento, descrevemos como exportar o resultado de uma consulta executada em uma tabela do BigLake para o bucket do Amazon Simple Storage Service (Amazon S3).
Para informações sobre como os dados fluem entre o BigQuery e o Amazon S3, consulte Fluxo de dados ao exportar dados.
Limitações
Para acessar uma lista completa de limitações que se aplicam a tabelas do BigLake baseadas no Amazon S3 e no Armazenamento de Blobs, consulte Limitações.
Antes de começar
Confira se você tem os seguintes recursos:
- Uma conexão para acessar o bucket do Amazon S3.
- Uma tabela do Amazon S3 BigLake.
- A política correta do Identity and Access Management (IAM)
da Amazon Web Services (AWS):
- Você precisa ter a permissão
PutObject
para gravar dados no bucket do Amazon S3. Para mais informações, consulte Criar uma política do AWS IAM para o BigQuery.
- Você precisa ter a permissão
- Se você estiver no modelo de preços baseado em capacidade, verifique se ativou a API BigQuery Reservation no projeto. Para informações sobre preços, consulte Preços do BigQuery Omni.
Exportar resultados da consulta
O BigQuery Omni é gravado em um local específico do Amazon S3, independentemente de qualquer conteúdo existente. A consulta de exportação pode substituir os dados ou combinar o resultado da consulta com os dados existentes. É recomendável exportar o resultado da consulta para um bucket vazio do Amazon S3.
Para executar uma consulta, selecione uma das seguintes opções:
SQL
No campo Editor de consultas, insira uma consulta de exportação do GoogleSQL. O GoogleSQL é a sintaxe padrão no Console do Google Cloud.
No Console do Google Cloud, acesse a página BigQuery.
No editor de consultas, digite a seguinte instrução:
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Substitua:
CONNECTION_REGION
: a região em que a conexão foi criada.CONNECTION_NAME
: o nome da conexão que você criou com a permissão necessária para gravar no bucket do S3.BUCKET_NAME
: o bucket do Amazon S3 em que você quer gravar os dados.PATH
: o caminho em que você quer gravar o arquivo exportado. Ele precisa conter exatamente um caractere curinga*
em qualquer lugar no diretório da string do caminho, por exemplo,../aa/*
,../aa/b*c
,../aa/*bc
e../aa/bc*
. O BigQuery substitui*
por0000..N
dependendo do número de arquivos exportados. O BigQuery determina a contagem e os tamanhos de arquivos. Se o BigQuery decidir exportar dois arquivos, o*
no primeiro nome do arquivo será substituído por000000000000
, e o*
no segundo nome do arquivo, substituído por000000000001
:FORMAT
: os formatos compatíveis sãoJSON
,AVRO
eCSV
ePARQUET
QUERY
: a consulta para analisar os dados armazenados em uma tabela do BigLake.Clique em
Executar.
Para mais informações sobre como executar consultas, acesse Executar uma consulta interativa.
Java
Antes de testar esta amostra, siga as instruções de configuração do Java no Guia de início rápido do BigQuery: como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API BigQuery em Java.
Para autenticar no BigQuery, configure o Application Default Credentials. Para mais informações, acesse Configurar a autenticação para bibliotecas de cliente.
Solução de problemas
Se você receber um erro relacionado a quota failure
, verifique se tem reserva de
capacidade para as consultas. Para mais informações sobre reservas de slot, consulte
Antes de começar neste documento.
A seguir
- Saiba mais sobre o BigQuery Omni.
- Saiba como exportar dados da tabela.
- Saiba como consultar dados armazenados no Amazon S3.
- Saiba como configurar o VPC Service Controls para o BigQuery Omni.