Cloud DLP mit BigQuery verwenden

Diese Seite enthält Verweise auf Seiten mit Informationen zur Verwendung von Cloud Data Loss Prevention (DLP) mit BigQuery.

Kurzanleitungen

Kurzanleitung: Cloud DLP-Inspektionsscan planen
Regelmäßige Prüfung eines Cloud Storage-Buckets, einer BigQuery-Tabelle oder einer Datastore-Art planen. Eine ausführliche Anleitung finden Sie unter Cloud DLP-Inspektionsjobs erstellen und planen.

Anleitungen

Dieser Abschnitt enthält eine kategorisierte Liste von aufgabenbasierten Anleitungen, die zeigen, wie Cloud DLP mit BigQuery verwendet wird.

Prüfung

Speicher und Datenbanken auf sensible Daten prüfen
Erstellen Sie einen einmaligen Job, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach sensiblen Daten sucht.
Cloud DLP-Inspektionsjobs erstellen und planen
Erstellen und planen Sie einen Job-Trigger, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach sensiblen Daten sucht. Ein Job-Trigger automatisiert das Erstellen von Cloud DLP-Jobs in regelmäßigen Abständen.

Mit Scanergebnissen arbeiten

Cloud DLP-Scanergebnisse an Data Catalog senden
In BigQuery-Tabelle scannen und die Ergebnisse anschließend an Data Catalog senden, um automatisch Tags basierend auf Cloud DLP-Ergebnissen zu erstellen.
Cloud DLP-Scanergebnisse an Security Command Center senden
Scannen Sie einen Cloud Storage-Bucket, eine BigQuery-Tabelle oder eine Datastore-Art und senden Sie die Ergebnisse an Security Command Center.
DLP-Ergebnisse analysieren und Berichte erstellen
Mit BigQuery Analysen zu Cloud DLP-Ergebnissen ausführen.
Cloud DLP-Ergebnisse in BigQuery abfragen
Sehen Sie sich Beispielabfragen an, mit denen Sie in BigQuery Ergebnisse analysieren können, die von Cloud DLP erkannt wurden.

Re-Identifikations-Risikoanalyse

Risiko der Re-Identifikation und Offenlegung messen

Analysieren Sie in einer BigQuery-Tabelle gespeicherte strukturierte Daten und berechnen Sie die folgenden Risikomesswerte für die Re-Identifikation:

Numerische und kategorische Statistiken berechnen

Mindest-, Höchst- und Quantilwerte für eine einzelne BigQuery-Spalte bestimmen.

Risiko der Re-Identifikation mit Data Studio visualisieren

Messen Sie die k-Anonymität eines Datasets und visualisieren Sie sie anschließend in Google Data Studio.

Tutorials

Personenidentifizierbare Informationen mit Cloud DLP de-identifizieren und neu identifizieren

Erstellen Sie eine automatisierte Pipeline zur Datentransformation, um sensible Daten, wie etwa personenidentifizierbare Informationen, zu de-identifizieren. Dies ist eine vierteilige Serie mit folgenden Themen:

Sichere Anomalieerkennungslösung mit Dataflow, BigQuery ML und Cloud Data Loss Prevention (DLP) erstellen

Sichere Lösung zur Anomalieerkennung für Telekommunikationsnetzwerke erstellen

Lösung zur Migration vertraulicher Daten bereitstellen

Implementieren Sie eine End-to-End-Lösung zur Datentokenisierung, um sensible Daten in BigQuery zu migrieren.

Communitybeiträge

Die folgenden Ressourcen gehören nicht dem Cloud DLP-Team, sondern den Mitgliedern der Community. Wenden Sie sich bei Fragen zu diesen Elementen an die entsprechenden Inhaber.

Data Catalog-Tags durch Überprüfung von BigQuery-Daten mit Cloud Data Loss Prevention (DLP) erstellen
BigQuery-Daten mit der Cloud Data Loss Prevention API prüfen und dann mithilfe der Data Catalog API Tags auf Spaltenebene gemäß den von Cloud DLP gefundenen sensiblen Elementen erstellen.
Ereignisgesteuerte serverlose Planungsarchitektur mit Cloud DLP
Richten Sie eine ereignisgesteuerte, serverlose Planungsanwendung ein, die die Daten mit der Cloud Data Loss Prevention API überprüft.
Anomalieerkennung in Echtzeit mit Streamanalysen und KI-Diensten von Google Cloud
In einem Echtzeit-KI-Muster (KI) können Sie Anomalien in Logdateien erkennen. Bei diesem Proof of Concept werden Pub/Sub, Dataflow, BigQuery ML und Cloud DLP verwendet.
Relationaler Datenbankimport in BigQuery mit Dataflow und Cloud DLP
Mit Dataflow und Cloud DLP können Sie Daten sicher tokenisieren und aus einer relationalen Datenbank in BigQuery importieren. In diesem Beispiel wird beschrieben, wie personenidentifizierbare Informationen tokenisiert werden, bevor sie dauerhaft werden.

Preise

Beim Prüfen einer BigQuery-Tabelle fallen Cloud DLP-Kosten gemäß den Preisen für Speicherinspektionsjobs an.

Wenn Sie Inspektionsergebnisse in einer BigQuery-Tabelle speichern, gelten außerdem BigQuery-Gebühren.