Utilizzo di Sensitive Data Protection con BigQuery

Questa pagina contiene riferimenti a pagine che forniscono informazioni su come utilizzare Sensitive Data Protection con BigQuery.

Guide rapide

Guida rapida: pianificazione di una scansione di ispezione di Sensitive Data Protection
Pianifica l'ispezione periodica di un bucket Cloud Storage, di una tabella BigQuery o di un tipo di datastore. Per istruzioni dettagliate, consulta Creare e pianificare job di ispezione di Sensitive Data Protection.

Guide illustrative

Questa sezione fornisce un elenco categorizzato di guide basate sulle attività che spiegano come utilizzare Sensitive Data Protection con BigQuery.

Ispezione

Ispezione dello spazio di archiviazione e dei database per l'individuazione di dati sensibili
Crea un job una tantum che cerca dati sensibili in un bucket Cloud Storage, in una tabella BigQuery o in un tipo di Datastore.
Creazione e pianificazione di job di ispezione di Sensitive Data Protection
Crea e pianifica un trigger di job che cerchi dati sensibili in un bucket Cloud Storage, in una tabella BigQuery o in un tipo di datastore. Un trigger di job automatizza la creazione periodica di job di Sensitive Data Protection.

Utilizzo dei risultati dell'analisi

Invio dei risultati dell'analisi di Sensitive Data Protection a Data Catalog
Scansiona una tabella BigQuery, quindi invia i risultati a Data Catalog per creare automaticamente tag in base ai risultati di Sensitive Data Protection.
Invio dei risultati dell'analisi di Sensitive Data Protection a Security Command Center
Esegui la scansione di un bucket Cloud Storage, di una tabella BigQuery o di un tipo di datastore, quindi invia i risultati a Security Command Center.
Analisi e reporting sui risultati di Sensitive Data Protection
Utilizza BigQuery per eseguire analisi sui risultati relativi a Sensitive Data Protection.
Esecuzione di query sui risultati di Sensitive Data Protection in BigQuery
Esamina le query di esempio che puoi utilizzare in BigQuery per analizzare i risultati identificati da Sensitive Data Protection.

Analisi del rischio di reidentificazione

Misurazione del rischio di reidentificazione e divulgazione

Analizza i dati strutturati archiviati in una tabella BigQuery e calcola le seguenti metriche del rischio di reidentificazione:

Calcolo delle statistiche numeriche e categoriche

Determinare i valori minimo, massimo e quantile per una singola colonna BigQuery.

Visualizzare il rischio di reidentificazione utilizzando Looker Studio

Misura il valore k-anonymity di un set di dati e poi visualizzalo in Looker Studio.

Tutorial

Anonimizza i dati BigQuery al momento della query
Segui un tutorial passo passo che utilizza le funzioni remote di BigQuery per anonimizzare e reidentificare i dati nei risultati delle query in tempo reale.
Anonimizzazione e reidentificazione delle PII in set di dati su larga scala utilizzando Sensitive Data Protection
Esamina un'architettura di riferimento per creare una pipeline di trasformazione dei dati automatizzata che anonimizza i dati sensibili come le informazioni che consentono l'identificazione personale (PII).

best practice

Proteggi un data warehouse BigQuery in cui sono archiviati dati riservati
Panoramica dell'architettura e best practice per la governance dei dati durante la creazione, il deployment e la gestione di un data warehouse in Google Cloud, inclusi anonimizzazione dei dati, gestione differenziale dei dati riservati e controlli dell'accesso a livello di colonna.

Contributi della community

I seguenti contenuti sono di proprietà e gestiti dai membri della community e non dal team Sensitive Data Protection. Per domande su questi elementi, contatta i rispettivi proprietari.

Crea tag Data Catalog ispezionando i dati BigQuery con Sensitive Data Protection
Ispeziona i dati BigQuery utilizzando l'API Cloud Data Loss Prevention, quindi utilizza l'API Data Catalog per creare tag a livello di colonna in base agli elementi sensibili rilevati da Sensitive Data Protection.
Architettura di pianificazione serverless basata sugli eventi con Sensitive Data Protection
Configura un'applicazione di pianificazione serverless basata su eventi che utilizza l'API Cloud Data Loss Prevention per esaminare i dati di BigQuery.
Rilevamento di anomalie in tempo reale con i servizi di analisi dei flussi e AI di Google Cloud
Segui un pattern di intelligenza artificiale (AI) in tempo reale per rilevare le anomalie nei file di log. Questa proof-of-concept utilizza Pub/Sub, Dataflow, BigQuery ML e Sensitive Data Protection.
Importazione di database relazionali in BigQuery con Dataflow e Sensitive Data Protection
Utilizza Dataflow e Sensitive Data Protection per tokenizzare e importare i dati in modo sicuro da un database relazionale a BigQuery. Questo esempio descrive come tokenizzare i dati PII prima che vengano resi permanenti.

Prezzi

Quando esamini una tabella BigQuery, ti vengono addebitati costi di Sensitive Data Protection, in base ai prezzi del job di ispezione dell'archiviazione.

Inoltre, quando salvi i risultati dell'ispezione in una tabella BigQuery, vengono applicati costi di BigQuery.