Cloud Data Loss Prevention (Cloud DLP) ora fa parte di Sensitive Data Protection. Il nome dell'API rimane invariato: API Cloud Data Loss Prevention (API DLP). Per informazioni sui servizi che compongono Sensitive Data Protection, consulta la panoramica di Sensitive Data Protection.
Misurazione del rischio di reidentificazione e divulgazione
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
L'analisi del rischio di reidentificazione, o semplicemente analisi del rischio, è il processo di analisi dei dati sensibili per trovare proprietà che potrebbero aumentare il rischio di identificazione dei soggetti. Puoi utilizzare i metodi di analisi del rischio prima
dell'anonimizzazione per determinare una strategia efficace o
dopo l'anonimizzazione per monitorare eventuali modifiche o valori anomali.
k Se non hai familiarità con l'analisi
del rischio o con queste metriche, consulta l'argomento
sull'analisi del rischio prima di continuare.
Questa sezione fornisce panoramiche su come utilizzare Sensitive Data Protection per l'analisi del rischio dei dati strutturati utilizzando una qualsiasi di queste metriche, oltre ad altri argomenti correlati.
Calcolare il rischio di reidentificazione
Sensitive Data Protection può analizzare i dati strutturati archiviati nelle tabelle BigQuery e calcolare le seguenti metriche del rischio di reidentificazione. Fai clic sul link della metrica che vuoi calcolare per saperne di più.
Una proprietà di un set di dati che indica la reidentificabilità dei suoi record. Un set di dati è k-anonymous se i quasi-identificatori per ogni persona nel set di dati sono identici ad almeno k – 1 altre persone nel set di dati.
Un'estensione di k-anonymity che misura anche la diversità dei valori sensibili per ogni colonna in cui si presentano. Un set di dati ha l-diversity se, per ogni insieme di righe con quasi-identificatori identici, esistono almeno l valori distinti per ciascun attributo sensibile.
Calcola il rischio di reidentificazione confrontando un determinato set di dati anonimizzati di soggetti con un set di dati di reidentificazione o "attacco" più ampio.
Stima la probabilità che un determinato utente di una popolazione più ampia sia presente nel set di dati. Questo viene utilizzato quando l'appartenenza al set di dati è di per sé un'informazioni sensibili.
Calcolare altre statistiche
Sensitive Data Protection può anche calcolare statistiche numeriche e categoriche
per i dati archiviati nelle tabelle BigQuery utilizzando la stessa
risorsa DlpJob delle
API di analisi del rischio.
Puoi visualizzare le metriche di rischio calcolate da Sensitive Data Protection
direttamente nella Google Cloud console utilizzando Sensitive Data Protection
(k-anonimity o
l-diversity) o utilizzando altri
prodottiGoogle Cloud .
Dopo aver calcolato i valori di k-anonimato per un set di dati utilizzando Sensitive Data Protection, puoi visualizzare i risultati in Looker Studio. In questo modo, potrai anche comprendere meglio il rischio di reidentificazione e valutare i compromessi in termini di utilità che potresti fare se oscuri o deidentifichi i dati.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-11 UTC."],[],[],null,["# Measuring re-identification and disclosure risk\n\n*Re-identification risk analysis* , or just *risk analysis*, is the process of\nanalyzing sensitive data to find properties that might increase the risk of\nsubjects being identified. You can use risk analysis methods before\nde-identification to help determine an effective de-identification strategy or\nafter de-identification to monitor for any changes or outliers.\n\nSensitive Data Protection can compute four re-identification risk metrics: *k* -anonymity,\n*l* -diversity, *k* -map, and *δ* -presence. If you're not familiar with risk\nanalysis or these metrics, see the [risk analysis concept\ntopic](/sensitive-data-protection/docs/concepts-risk-analysis) before continuing on.\n\nThis section provides overviews of how to use Sensitive Data Protection for risk\nanalysis of structured data using any of these metrics, plus other related\ntopics.\n\nCalculate re-identification risk\n--------------------------------\n\nSensitive Data Protection can analyze your structured data stored in\nBigQuery tables and compute the following re-identification risk\nmetrics. Click the link for the metric you want to calculate to learn more.\n\nCalculate other statistics\n--------------------------\n\nSensitive Data Protection can also compute numerical and categorical\nstatistics for data stored in BigQuery tables using the same\n[`DlpJob`](/sensitive-data-protection/docs/reference/rest/v2/projects.dlpJobs) resource as the\nrisk analysis APIs.\n\nFor more information, see\n[Computing numerical and categorical statistics](/sensitive-data-protection/docs/compute-stats).\n\nVisualize re-identification risk\n--------------------------------\n\nYou can visualize the risk metrics that Sensitive Data Protection calculates\ndirectly in the Google Cloud console using Sensitive Data Protection\n([*k*-anonymity](/sensitive-data-protection/docs/compute-k-anonymity#viewing-results) or\n[*l*-diversity](/sensitive-data-protection/docs/compute-l-diversity#viewing-results)), or using other\nGoogle Cloud products."]]