Questa pagina contiene riferimenti a pagine che forniscono informazioni su come utilizzare Sensitive Data Protection con BigQuery.
Guide rapide
- Guida rapida: pianificare una scansione di ispezione di Sensitive Data Protection
- Pianifica l'ispezione periodica di un bucket Cloud Storage, di una tabella BigQuery o di un tipo Datastore. Per istruzioni dettagliate, consulta Creare e pianificare i job di ispezione di Sensitive Data Protection.
Guide illustrative
Questa sezione fornisce un elenco classificato di guide basate su attività che mostrano come utilizzare Sensitive Data Protection con BigQuery.
Ispezione
- Ispezione della capacità di archiviazione e dei database per l'individuazione di dati sensibili
- Crea un job una tantum che cerca dati sensibili in un bucket Cloud Storage, in una tabella BigQuery o in un tipo Datastore.
- Creare e pianificare i job di ispezione di Sensitive Data Protection
- Crea e pianifica un trigger di job che cerca dati sensibili in un bucket Cloud Storage, una tabella BigQuery o un tipo di datastore. Un trigger per job automatizza la creazione di job di Sensitive Data Protection su base periodica.
Utilizzo dei risultati della scansione
- Invio dei risultati della scansione di Sensitive Data Protection a Data Catalog
- Esegui la scansione di una tabella BigQuery e poi invia i risultati a Data Catalog per creare automaticamente i tag in base ai risultati di Sensitive Data Protection.
- Invio dei risultati della scansione di Sensitive Data Protection a Security Command Center
- Esegui la scansione di un bucket Cloud Storage, di una tabella BigQuery o di un tipo di Datastore, quindi invia i risultati a Security Command Center.
- Analisi e generazione di report sui risultati di Sensitive Data Protection
- Utilizza BigQuery per eseguire analisi sui risultati della Protezione dei dati sensibili .
- Eseguire query sui risultati di Sensitive Data Protection in BigQuery
- Esamina le query di esempio che puoi utilizzare in BigQuery per analizzare i risultati identificati da Sensitive Data Protection.
Analisi del rischio di reidentificazione
- Misurazione del rischio di reidentificazione e divulgazione
Analizza i dati strutturati archiviati in una tabella BigQuery e calcola le seguenti metriche relative al rischio di reidentificazione:
- Calcolo delle statistiche numeriche e di classificazione
Determina i valori minimo, massimo e quantili per una singola colonna BigQuery.
- Visualizzare il rischio di reidentificazione utilizzando Looker Studio
Misura l'k di un set di dati e poi visualizzalo in Looker Studio.
Tutorial
- Anonimizza i dati BigQuery al momento dell'esecuzione della query
- Segui un tutorial passo passo che utilizza le funzioni remote di BigQuery per anonimizzare e reidentificare i dati nei risultati delle query in tempo reale.
- Anonimazione e reidentificazione delle PII in set di dati su larga scala utilizzando la protezione dei dati sensibili
- Esamina un'architettura di riferimento per la creazione di una pipeline di trasformazione dei dati automatica che anonimizza i dati sensibili come le informazioni che consentono l'identificazione personale (PII).
Best practice
- Proteggere un data warehouse BigQuery in cui sono archiviati dati riservati
- Panoramica dell'architettura e best practice per la governance dei dati durante la creazione, il deployment e il funzionamento di un data warehouse in Google Cloud, inclusa la deidentificazione dei dati, la gestione differenziale dei dati riservati e i controlli di accesso a livello di colonna.
Contributi della community
I seguenti elementi sono di proprietà e gestiti dai membri della community e non dal team di protezione dei dati sensibili. Per domande su questi elementi, contatta i rispettivi proprietari.
- Creare tag di Data Catalog ispezzionando i dati BigQuery con la Protezione dei dati sensibili
- Esamina i dati di BigQuery utilizzando l'API Cloud Data Loss Prevention, quindi utilizza l'API Data Catalog per creare tag a livello di colonna in base agli elementi sensibili rilevati da Sensitive Data Protection.
- Architettura di pianificazione serverless basata su eventi con Sensitive Data Protection
- Configura un'applicazione di pianificazione serverless basata sugli eventi che utilizza l'API Cloud Data Loss Prevention per ispezionare i dati di BigQuery.
- Rilevamento di anomalie in tempo reale utilizzando i servizi di analisi dei flussi e di AI di Google Cloud
- Esplora un pattern di intelligenza artificiale (AI) in tempo reale per il rilevamento di anomalie nei file di log. Questa proof-of-concept utilizza Pub/Sub, Dataflow, BigQuery ML e Sensitive Data Protection.
- Importazione di database relazionali in BigQuery con Dataflow e protezione dei dati sensibili
- Utilizza Dataflow e la Protezione dei dati sensibili per tokenizzare e importare dati in maniera sicura da un database relazionale in BigQuery. Questo esempio descrive come eseguire il tokenizzazione dei dati PII prima che vengano resi permanenti.
Prezzi
Quando ispezioni una tabella BigQuery, devi sostenere i costi di Sensitive Data Protection, in base ai prezzi per i job di ispezione dell'archiviazione.
Inoltre, quando salvi i risultati dell'ispezione in una tabella BigQuery, si applicano gli addebiti di BigQuery.