Exporter les résultats de requêtes vers Amazon S3
Ce document explique comment exporter le résultat d'une requête exécutée sur une table BigLake vers votre bucket Amazon S3 (Amazon Simple Storage Service).
Pour en savoir plus sur la manière dont les données circulent entre BigQuery et Amazon S3, consultez la section Flux de données lors de l'exportation de données.
Avant de commencer
Assurez-vous de disposer des ressources suivantes :
- Une connexion pour accéder à votre bucket Amazon S3
- Une table BigLake Amazon S3
- La stratégie IAM (Identity and Access Management) appropriée pour Amazon Web Services (AWS) :
- Vous devez disposer de l'autorisation
PutObject
pour écrire des données dans le bucket Amazon S3. Pour en savoir plus, consultez la section Se connecter à Amazon S3.
- Vous devez disposer de l'autorisation
- Si vous utilisez le modèle de tarification basé sur la capacité, assurez-vous d'avoir activé l'API BigQuery Reservation pour votre projet. Pour en savoir plus sur les tarifs, consultez la section Tarifs de BigQuery Omni.
Exporter des résultats de requête
BigQuery Omni écrit sur l'emplacement Amazon S3 spécifié, quel que soit le contenu existant. La requête d'exportation peut écraser les données existantes ou combiner le résultat de la requête avec des données existantes. Nous vous recommandons d'exporter le résultat de la requête vers un bucket Amazon S3 vide.
Pour exécuter une requête, sélectionnez l'une des options suivantes :
SQL
Dans le champ Éditeur de requête, saisissez une requête d'exportation en GoogleSQL. GoogleSQL est la syntaxe par défaut dans la console Google Cloud.
Dans la console Google Cloud, accédez à la page BigQuery.
Dans l'éditeur de requête, saisissez l'instruction suivante :
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Remplacez les éléments suivants :
CONNECTION_REGION
: région dans laquelle la connexion a été créée.CONNECTION_NAME
: nom de la connexion que vous avez créée avec l'autorisation nécessaire pour écrire dans le bucket Amazon S3.BUCKET_NAME
: bucket Amazon S3 dans lequel vous souhaitez écrire les données.PATH
: chemin vers lequel vous souhaitez écrire le fichier exporté. Il doit contenir exactement un caractère générique*
, n'importe où dans le répertoire feuille de la chaîne du chemin d'accès, par exemple,../aa/*
,../aa/b*c
,../aa/*bc
et../aa/bc*
. BigQuery remplace*
par0000..N
en fonction du nombre de fichiers exportés. BigQuery détermine le nombre et la taille des fichiers. Si BigQuery décide d'exporter deux fichiers, alors*
dans le nom du premier fichier est remplacé par000000000000
, et*
dans le nom du deuxième fichier par000000000001
.FORMAT
: les formats acceptés sontJSON
,AVRO
,CSV
etPARQUET
.QUERY
: requête permettant d'analyser les données stockées dans une table BigLake.Cliquez sur
Exécuter.
Pour en savoir plus sur l'exécution des requêtes, consultez Exécuter une requête interactive.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java du guide de démarrage rapide de BigQuery : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API BigQuery pour Java.
Pour vous authentifier auprès de BigQuery, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez la page Configurer l'authentification pour les bibliothèques clientes.
Dépannage
Si vous obtenez une erreur liée à un problème de quota (quota failure
), vérifiez si vous disposez d'une capacité réservée pour vos requêtes. Pour en savoir plus sur les réservations d'emplacements, consultez la section Avant de commencer de ce document.
Limites
Pour obtenir la liste complète des limites applicables aux tables BigLake basées sur Amazon S3 et Blob Storage, consultez la section Limites.
Étapes suivantes
- Découvrez BigQuery Omni.
- Apprenez à exporter des données de table.
- Apprenez à interroger des données stockées dans Amazon S3.
- Découvrez comment configurer VPC Service Controls pour BigQuery Omni.