Introduzione alle connessioni
BigQuery consente di eseguire query sui dati archiviati al di fuori di BigQuery nei servizi Google Cloud come Cloud Storage o Spanner oppure in origini di terze parti come AWS o Azure. Queste connessioni esterne utilizzano l'API BigQuery Connection.
Ad esempio, supponi di archiviare i dettagli degli ordini dei clienti in Cloud SQL e i dati sulle vendite in BigQuery e di voler unire le due tabelle in una singola query. Puoi creare una connessione Cloud SQL al database esterno utilizzando l'API BigQuery Connection. Con le connessioni, le credenziali del database non vengono mai inviate come testo in chiaro.
Una connessione viene criptata e archiviata in modo sicuro nel servizio di connessione BigQuery. Per concedere agli utenti l'accesso alle connessioni, concedi loro i ruoli IAM (Identity and Access Management) della connessione BigQuery.
Tipi di connessione
BigQuery fornisce connessioni per le seguenti origini dati esterne:
Tabelle BigLake: le connessioni BigLake consentono di connettere le seguenti origini dati esterne, mantenendo al contempo sicurezza e controllo dell'accesso a BigQuery granulari:
- Dati strutturati in Cloud Storage
- Dati non strutturati in Cloud Storage
- Amazon S3 con BigQuery Omni
- Archiviazione BLOB di Azure con BigQuery Omni
Per ulteriori informazioni, consulta Introduzione alle tabelle BigLake.
Query federate: le connessioni federate stabiliscono connessioni ai seguenti database prima dell'invio della query. Le connessioni gestiscono le credenziali del database per le query federate.
Per ulteriori informazioni, consulta Introduzione alle query federate.
Funzioni remote:le funzioni remote di BigQuery ti consentono di implementare le funzioni con qualsiasi linguaggio supportato in Cloud Functions o Cloud Run. Una connessione BigQuery ti consente di connetterti a Cloud Functions o Cloud Run ed eseguire queste funzioni.
Per ulteriori informazioni, consulta Utilizzo delle funzioni remote e Analizzare le tabelle di oggetti utilizzando le funzioni remote.
Apache Spark: le stored procedure per Apache Spark consentono di eseguire procedure archiviate scritte in Python utilizzando BigQuery. Una connessione Spark consente di connetterti a Dataproc Serverless ed eseguire le stored procedure per Apache Spark.
Per ulteriori informazioni, consulta Utilizzare le stored procedure per Apache Spark.
Audit log
BigQuery registra le richieste di utilizzo e gestione relative alle connessioni. Per saperne di più, consulta Panoramica degli audit log di BigQuery.
Passaggi successivi
- Scopri come eseguire query sui dati archiviati:
- Eseguire query sui dati archiviati in Amazon S3.
- Esegui query sui dati archiviati in Blob Storage.
- Eseguire query sui dati strutturati archiviati in Cloud Storage.
- Esegui query su dati non strutturati archiviati in Cloud Storage.
- Eseguire query sui dati archiviati in Spanner.
- Esegui le query sui dati archiviati in Cloud SQL.
- Eseguire query sui dati utilizzando le funzioni remote.
- Esegui query su dati non strutturati usando le funzioni remote.
- Esegui una query sui dati utilizzando stored procedure per Apache Spark.
- Scopri come gestire le connessioni.
- Scopri di più sulle tabelle esterne.