Esporta i risultati della query in Archiviazione BLOB

Questo documento descrive come esportare il risultato di una query eseguita su una tabella BigLake nella tua archiviazione BLOB di Azure.

Per informazioni sul flusso di dati tra BigQuery e Archiviazione BLOB di Azure, consulta Flusso di dati durante l'esportazione dei dati.

Prima di iniziare

Assicurati di disporre delle seguenti risorse:

Esporta i risultati della query

BigQuery Omni scrive nella posizione di archiviazione BLOB specificata a prescindere dai contenuti esistenti. La query di esportazione può sovrascrivere i dati esistenti o combinare il risultato della query con i dati esistenti. Ti consigliamo di esportare il risultato della query in un container Archiviazione BLOB vuoto.

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel campo Editor query, inserisci una query di esportazione GoogleSQL:

    EXPORT DATA WITH CONNECTION \`CONNECTION_REGION.CONNECTION_NAME\`
    OPTIONS(
      uri="azure://AZURE_STORAGE_ACCOUNT_NAME.blob.core.windows.net/CONTAINER_NAME/FILE_PATH/*",
      format="FORMAT"
    )
    AS QUERY
    

    Sostituisci quanto segue:

    • CONNECTION_REGION: la regione in cui è stata creata la connessione.
    • CONNECTION_NAME: il nome della connessione che hai creato con l'autorizzazione necessaria per scrivere nel container.
    • AZURE_STORAGE_ACCOUNT_NAME: il nome dell'account Archiviazione BLOB in cui vuoi scrivere il risultato della query.
    • CONTAINER_NAME: il nome del container in cui vuoi scrivere il risultato della query.
    • FILE_PATH: il percorso in cui vuoi scrivere il file esportato. Deve contenere esattamente un carattere jolly * in qualsiasi punto della directory foglia della stringa del percorso, ad esempio ../aa/*, ../aa/b*c, ../aa/*bc e ../aa/bc*. BigQuery sostituisce * con 0000..N a seconda del numero di file esportati. BigQuery determina il numero e le dimensioni dei file. Se BigQuery decide di esportare due file, * nel nome del primo file viene sostituito con 000000000000 e * nel nome del secondo con 000000000001.
    • FORMAT: i formati supportati sono JSON, AVRO, CSV e PARQUET.
    • QUERY: la query per analizzare i dati archiviati in una tabella BigLake.

Risoluzione dei problemi

Se viene visualizzato un errore relativo a quota failure, verifica di aver prenotato capacità per le tue query. Per ulteriori informazioni sulle prenotazioni di slot, consulta Prima di iniziare in questo documento.

Limitazioni

Per un elenco completo delle limitazioni che si applicano alle tabelle BigLake basate su Amazon S3 e Archiviazione BLOB, vedi Limitazioni.

Passaggi successivi