Exporte os resultados da consulta para o Amazon S3
Este documento descreve como exportar o resultado de uma consulta executada numa tabela do BigLake para o seu contentor do Amazon Simple Storage Service (Amazon S3).
Para obter informações sobre como os dados fluem entre o BigQuery e o Amazon S3, consulte Fluxo de dados ao exportar dados.
Limitações
Para ver uma lista completa das limitações aplicáveis às tabelas BigLake com base no Amazon S3 e no armazenamento de blobs, consulte o artigo Limitações.
Antes de começar
Certifique-se de que tem os seguintes recursos:
- Uma associação para aceder ao seu contentor do Amazon S3.
- Uma tabela do BigLake do Amazon S3.
- A política de gestão de acessos e identidade (IAM) dos Amazon Web Services (AWS) correta:
- Tem de ter a autorização
PutObject
para escrever dados no contentor do Amazon S3. Para mais informações, consulte o artigo Crie uma política de IAM do AWS para o BigQuery.
- Tem de ter a autorização
- Se estiver a usar o modelo de preços baseado na capacidade, certifique-se de que ativou a API BigQuery Reservation para o seu projeto. Para informações sobre os preços, consulte os preços do BigQuery Omni.
Exporte os resultados da consulta
O BigQuery Omni escreve na localização do Amazon S3 especificada, independentemente do conteúdo existente. A consulta de exportação pode substituir os dados existentes ou misturar o resultado da consulta com os dados existentes. Recomendamos que exporte o resultado da consulta para um contentor do Amazon S3 vazio.
Para executar uma consulta, selecione uma das seguintes opções:
SQL
No campo Editor de consultas, introduza uma consulta de exportação do GoogleSQL. O GoogleSQL é a sintaxe predefinida na Google Cloud consola.
Na Google Cloud consola, aceda à página BigQuery.
No editor de consultas, introduza a seguinte declaração:
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Substitua o seguinte:
CONNECTION_REGION
: a região onde a associação foi criada.CONNECTION_NAME
: o nome da associação que criou com a autorização necessária para escrever no contentor do Amazon S3.BUCKET_NAME
: o contentor do Amazon S3 onde quer escrever os dados.PATH
: o caminho onde quer escrever o ficheiro exportado. Tem de conter exatamente um caráter universal*
em qualquer parte do diretório folha da string de caminho, por exemplo,../aa/*
,../aa/b*c
,../aa/*bc
e../aa/bc*
. O BigQuery substitui*
por0000..N
consoante o número de ficheiros exportados. O BigQuery determina a quantidade e os tamanhos dos ficheiros. Se o BigQuery decidir exportar dois ficheiros,*
no nome do ficheiro do primeiro ficheiro é substituído por000000000000
e*
no nome do ficheiro do segundo ficheiro é substituído por000000000001
.FORMAT
: os formatos suportados sãoJSON
,AVRO
,CSV
ePARQUET
.QUERY
: a consulta para analisar os dados que estão armazenados numa tabela do BigLake. O conjunto de dados que contém a tabela do BigLake usada na consulta tem de estar localizado na mesma região do Amazon S3 que o contentor do Amazon S3 de destino.Clique em
Executar.
Para mais informações sobre como executar consultas, consulte o artigo Execute uma consulta interativa.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do BigQuery com bibliotecas cliente. Para mais informações, consulte a API Java BigQuery documentação de referência.
Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para bibliotecas de cliente.
Resolução de problemas
Se receber um erro relacionado com quota failure
, verifique se reservou capacidade para as suas consultas. Para mais informações sobre reservas de horários, consulte a secção Antes de começar neste documento.
O que se segue?
- Saiba mais acerca do BigQuery Omni.
- Saiba como exportar dados de tabelas.
- Saiba como consultar dados armazenados no Amazon S3.
- Saiba como configurar o VPC Service Controls para o BigQuery Omni.