Query sui dati di archiviazione BLOB
Questo documento descrive come eseguire query sui dati archiviati in un Tabella BigLake per Azure Blob Storage.
Prima di iniziare
Assicurati di avere una tabella BigLake di archiviazione BLOB.
Ruoli obbligatori
Per eseguire query sulle tabelle BigLake di Blob Storage, assicurati che il chiamante dell'API BigQuery abbia i seguenti ruoli:
- Utente connessione BigQuery (
roles/bigquery.connectionUser
) - Visualizzatore dati BigQuery (
roles/bigquery.dataViewer
) - Utente BigQuery (
roles/bigquery.user
)
Il chiamante può essere il tuo account Account di servizio di connessione allo spazio di archiviazione BLOB. In base alle tue autorizzazioni, puoi concediti questi ruoli o chiedi all'amministratore per concederteli. Per ulteriori informazioni sulla concessione dei ruoli, consulta Visualizzazione dei ruoli assegnabili nelle risorse.
Per visualizzare le autorizzazioni esatte necessarie per eseguire query nelle tabelle BigLake di Blob Storage, espandi Sezione Autorizzazioni obbligatorie:
Autorizzazioni obbligatorie
bigquery.connections.use
bigquery.jobs.create
bigquery.readsessions.create
(obbligatorio solo se sei tu leggi i dati con API BigQuery Storage Read)bigquery.tables.get
bigquery.tables.getData
Potresti anche riuscire a ottenere queste autorizzazioni con i ruoli personalizzati. o altri ruoli predefiniti.
Esegui query sulle tabelle BigLake di archiviazione BLOB
Dopo aver creato una tabella BigLake di archiviazione BLOB, puoi eseguire una query utilizzando Sintassi GoogleSQL, come se era una tabella BigQuery standard.
I risultati delle query memorizzati nella cache in una tabella temporanea BigQuery. Per eseguire una query su un tabella BigLake, vedi Esegui una query su una tabella BigLake temporanea. Per saperne di più sulle limitazioni e sulle quote di BigQuery Omni, vedi limitazioni e le quote.
Quando crei una prenotazione in una regione BigQuery Omni, utilizza il metodo Versione Enterprise. Per scoprire come creare una prenotazione con una versione, consulta Creare prenotazioni.
Esegui una query sulla tabella BigLake di archiviazione BLOB:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor query, inserisci la seguente istruzione:
SELECT * FROM DATASET_NAME.TABLE_NAME;
Sostituisci quanto segue:
DATASET_NAME
: il nome del set di dati che hai creatoTABLE_NAME
: la tabella BigLake che ti chiama creatoFai clic su
Esegui.
Per ulteriori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
Eseguire una query su una tabella temporanea
BigQuery crea tabelle temporanee per archiviare i risultati delle query. Per recuperare il risultato della query da tabelle temporanee, puoi utilizzare la console Google Cloud o l'API BigQuery.
Seleziona una delle seguenti opzioni:
Console
Quando esegui una query su una tabella BigLake che fa riferimento a dati cloud esterni, puoi visualizzare i risultati della query visualizzati nella console Google Cloud.
API
Per eseguire query su una tabella BigLake utilizzando l'API, segui questi passaggi:
- Crea un oggetto Job.
- Chiama il metodo
jobs.insert
per eseguire la query in modo asincrono o utilizzare il metodojobs.query
eseguire la query in modalità sincrona, passando l'oggettoJob
. - Leggi le righe con
jobs.getQueryResults
passando il riferimento del job specificato e i metoditabledata.list
trasmettendo il riferimento alla tabella specificato del risultato della query.
Esegui una query sulla pseudocolonna _FILE_NAME
Le tabelle basate su origini dati esterne forniscono una pseudocolonna denominata _FILE_NAME
. Questo
contiene il percorso completo del file a cui appartiene la riga. Questa colonna è
disponibile solo per le tabelle che fanno riferimento a dati esterni archiviati in
Cloud Storage, Google Drive,
Amazon S3 e Archiviazione BLOB di Azure.
Il nome della colonna _FILE_NAME
è riservato, il che significa che non puoi creare una colonna
con lo stesso nome in qualsiasi tabella. Per selezionare il valore di _FILE_NAME
, devi utilizzare
un alias. La seguente query di esempio dimostra la selezione di _FILE_NAME
assegnando
l'alias fn
alla pseudocolonna.
bq query \
--project_id=PROJECT_ID \
--use_legacy_sql=false \
'SELECT
name,
_FILE_NAME AS fn
FROM
`DATASET.TABLE_NAME`
WHERE
name contains "Alex"'
Sostituisci quanto segue:
-
PROJECT_ID
è un ID progetto valido (questo flag non è obbligatorio se utilizzi Cloud Shell o se imposti un progetto predefinito in Google Cloud CLI) -
DATASET
è il nome del set di dati in cui è archiviato l'elemento esterno permanente tavola -
TABLE_NAME
è il nome della tabella esterna permanente
Quando la query ha un predicato di filtro nella pseudocolonna _FILE_NAME
,
BigQuery tenta di saltare la lettura dei file che non soddisfano il filtro. Simile
consigli per
eseguire query su tabelle partizionate per data di importazione mediante pseudocolonne
si applicano quando si creano predicati di query con la pseudocolonna _FILE_NAME
.
Passaggi successivi
- Scopri di più sull'utilizzo di SQL in BigQuery.
- Scopri di più su BigQuery Omni.
- Scopri di più sulle quote di BigQuery.