Cloud DLP mit BigQuery verwenden

Diese Seite enthält Verweise auf Seiten, auf denen Informationen zur Verwendung von Cloud Data Loss Prevention mit BigQuery bereitgestellt werden.

Kurzanleitungen

Kurzanleitung: Cloud DLP-Inspektionsscan planen
Regelmäßige Prüfung eines Cloud Storage-Buckets, einer BigQuery-Tabelle oder einer Datastore-Art planen. Eine ausführliche Anleitung finden Sie unter Cloud DLP-Inspektionsjobs erstellen und planen.

Anleitungen

Dieser Abschnitt enthält eine kategorisierte Liste mit aufgabenbasierten Leitfäden, die zeigen, wie Cloud DLP mit BigQuery verwendet wird.

Prüfung

Speicher und Datenbanken auf sensible Daten prüfen
Erstellen Sie einen einmaligen Job, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht.
Cloud DLP-Inspektionsjobs erstellen und planen
Erstellen und planen Sie einen Job-Trigger, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht. Ein Job-Trigger automatisiert die Erstellung von Cloud DLP-Jobs in regelmäßigen Abständen.

Mit Scanergebnissen arbeiten

Cloud DLP-Scanergebnisse an Data Catalog senden
Scannen Sie eine BigQuery-Tabelle und senden Sie die Ergebnisse an Data Catalog, um Tags anhand von Cloud DLP-Ergebnissen automatisch zu erstellen.
Cloud DLP-Scanergebnisse an Security Command Center senden
Scannen Sie einen Cloud Storage-Bucket, eine BigQuery-Tabelle oder einen Datastore und senden Sie die Ergebnisse an das Security Command Center.
DLP-Ergebnisse analysieren und Berichte erstellen
Nutzen Sie BigQuery, um Analysen zu Cloud DLP-Ergebnissen auszuführen.
Cloud DLP-Ergebnisse in BigQuery abfragen
Rufen Sie Beispielabfragen auf, mit denen Sie in BigQuery Ergebnisse analysieren können, die Cloud DLP identifiziert hat.

Re-Identifikations-Risikoanalyse

Risiko der Re-Identifikation und Offenlegung messen

Analysieren Sie strukturierte Daten, die in einer BigQuery-Tabelle gespeichert sind, und berechnen Sie die folgenden Messwerte zur Re-Identifikation:

Numerische und kategorische Statistiken berechnen

Bestimmen die Mindest-, Höchst- und Quantilwerte für eine einzelne BigQuery-Spalte.

Risiko für die Re-Identifikation mit Looker Studio visualisieren

Messen Sie die k-Anonymität eines Datasets und visualisieren Sie es dann in Looker Studio.

Tutorials

BigQuery-Daten zum Zeitpunkt der Abfrage de-identifizieren
In dieser detaillierten Anleitung wird anhand von BigQuery-Remote-Funktionen die Daten in Echtzeit-Abfrageergebnisse de-identifiziert und neu identifiziert.
Personenidentifizierbare Informationen in umfangreichen Datasets mit Cloud DLP de-identifizieren und neu identifizieren
Sehen Sie sich eine Referenzarchitektur zum Erstellen einer automatisierten Pipeline zur Datentransformation an, die vertrauliche Daten wie personenidentifizierbare Informationen de-identifiziert.

Best Practices

BigQuery-Data-Warehouse sichern, in dem vertrauliche Daten gespeichert werden
Architekturarchitektur und Best Practices für Data Governance beim Erstellen, Bereitstellen und Betreiben eines Data Warehouse in Google Cloud, einschließlich Datende-Identifikation, differenzierter Handhabung vertraulicher Daten und Zugriffssteuerungen auf Spaltenebene.

Communitybeiträge

Die folgenden Inhalte gehören Community-Mitgliedern und werden von diesen verwaltet, nicht vom Cloud DLP-Team. Wenden Sie sich bei Fragen zu diesen Elementen an die entsprechenden Inhaber.

Data Catalog-Tags durch Überprüfen von BigQuery-Daten mit Cloud Data Loss Prevention erstellen
Untersuchen Sie BigQuery-Daten mit der Cloud Data Loss Prevention API und erstellen Sie dann mit der Data Catalog API Tags auf Spaltenebene gemäß den von Cloud DLP ermittelten vertraulichen Elementen.
Ereignisbasierte serverlose Planungsarchitektur mit Cloud DLP
Richten Sie eine ereignisgesteuerte, serverlose Planungsanwendung ein, die BigQuery-Daten mithilfe der Cloud Data Loss Prevention API prüft.
Anomalieerkennung in Echtzeit mit Google Cloud-Streamanalysen und AI-Diensten
Hier erfahren Sie, wie Sie ein KI-Muster in Echtzeit zur Erkennung von Anomalien in Logdateien durcharbeiten. In diesem Proof of Concept werden Pub/Sub, Dataflow, BigQuery ML und Cloud DLP verwendet.
Relationaler Datenbankimport in BigQuery mit Dataflow und Cloud DLP
Mit Dataflow und Cloud DLP können Sie Daten aus einer relationalen Datenbank sicher tokenisieren und in BigQuery importieren. In diesem Beispiel wird beschrieben, wie personenbezogene Daten tokenisiert werden, bevor sie dauerhaft werden.

Preise

Wenn Sie eine BigQuery-Tabelle prüfen, fallen Cloud DLP-Kosten gemäß den Preisen für Speicherinspektionsjobs an.

Wenn Sie Inspektionsergebnisse in einer BigQuery-Tabelle speichern, fallen außerdem BigQuery-Gebühren an.