Questa pagina contiene riferimenti a pagine che forniscono informazioni su come utilizzare Cloud Data Loss Prevention con BigQuery.
Guide rapide
- Guida rapida: pianificazione di una scansione di ispezione di Cloud DLP
- Pianifica l'ispezione periodica di un bucket Cloud Storage, di una tabella BigQuery o di un tipo di datastore. Per istruzioni dettagliate, consulta Creazione e pianificazione dei job di ispezione di Cloud DLP.
Guide illustrative
Questa sezione fornisce un elenco categorizzato di guide basate sulle attività che mostrano come utilizzare Cloud DLP con BigQuery.
Ispezione
- Ispezione dello spazio di archiviazione e dei database per rilevare la presenza di dati sensibili
- Crea un job una tantum che cerchi dati sensibili in un bucket Cloud Storage, una tabella BigQuery o un tipo di Datastore.
- Creazione e pianificazione dei job di ispezione di Cloud DLP
- Crea e pianifica un trigger di job che cerca dati sensibili in un bucket Cloud Storage, una tabella BigQuery o un tipo di datastore. Un trigger di job automatizza la creazione di job Cloud DLP su base periodica.
Utilizzo dei risultati della scansione
- Invio dei risultati della scansione di Cloud DLP a Data Catalog
- Scansiona una tabella BigQuery, quindi invia i risultati a Data Catalog per creare automaticamente i tag in base ai risultati di Cloud DLP.
- Invio dei risultati della scansione di Cloud DLP a Security Command Center
- Analizza un bucket Cloud Storage, una tabella BigQuery o un tipo di Datastore, quindi invia i risultati a Security Command Center.
- Analisi e report sui risultati DLP
- Utilizza BigQuery per eseguire analisi sui risultati di Cloud DLP.
- Esecuzione di query sui risultati di Cloud DLP in BigQuery
- Esamina le query di esempio che puoi utilizzare in BigQuery per analizzare i risultati identificati da Cloud DLP.
Analisi del rischio di reidentificazione
- Misurazione del rischio di reidentificazione e divulgazione
Analizza i dati strutturati archiviati in una tabella BigQuery e calcola le seguenti metriche di rischio di reidentificazione:
- Statistiche statistiche e computazionali
Determina i valori minimo, massimo e quantile per una singola colonna BigQuery.
- Visualizzare il rischio di reidentificazione utilizzando Looker Studio
Misura l'anonimizzazione k di un set di dati, quindi visualizzalo in Looker Studio.
Tutorial
- Anonimizza i dati BigQuery al momento della query
- Segui un tutorial passo passo che utilizza le funzioni remote di BigQuery per anonimizzare e reidentificare i dati nei risultati delle query in tempo reale.
- Anonimizzazione e reidentificazione delle PII in set di dati su larga scala con Cloud DLP
- Esamina un'architettura di riferimento per la creazione di una pipeline di trasformazione automatica dei dati che anonimizzi i dati sensibili come le informazioni che consentono l'identificazione personale (PII).
Best practice
- Proteggi un data warehouse BigQuery in cui sono archiviati dati riservati
- Panoramica dell'architettura e best practice per la governance dei dati durante la creazione, il deployment e il funzionamento di un data warehouse in Google Cloud, inclusi l'anonimizzazione dei dati, la gestione differenziale dei dati riservati e i controlli dell'accesso a livello di colonna.
Contributi della community
I seguenti elementi sono di proprietà e gestiti dai membri della community e non dal team di Cloud DLP. Per domande su questi elementi, contatta i rispettivi proprietari.
- Crea tag Data Catalog ispezionando i dati BigQuery con Cloud Data Loss Prevention
- Esamina i dati BigQuery utilizzando l'API Cloud Data Loss Prevention, quindi utilizza l'API Data Catalog per creare tag a livello di colonna in base agli elementi sensibili rilevati da Cloud DLP.
- Architettura di pianificazione serverless basata su eventi con Cloud DLP
- Configurare un'applicazione di pianificazione serverless basata sugli eventi che utilizza l'API Cloud Data Loss Prevention per ispezionare i dati BigQuery.
- Rilevamento di anomalie in tempo reale con l'analisi dei flussi di Google Cloud e i servizi di AI
- Analizza uno schema di intelligenza artificiale (AI) in tempo reale per rilevare le anomalie nei file di log. Questa proof of concept utilizza Pub/Sub, Dataflow, BigQuery ML e Cloud DLP.
- Importazione di database relazionale in BigQuery con Dataflow e Cloud DLP
- Utilizza Dataflow e Cloud DLP per tokenizzare e importare in modo sicuro i dati da un database relazionale in BigQuery. Questo esempio descrive come tokenizzare i dati PII prima che siano resi permanenti.
Prezzi
Quando esamini una tabella BigQuery, ti vengono addebitati i costi di Cloud DLP, in base ai prezzi del job di ispezione dell'archiviazione.
Inoltre, quando salvi i risultati del controllo in una tabella BigQuery, si applicano i costi di BigQuery.