Diese Seite enthält Verweise auf Seiten mit Informationen zur Verwendung des Schutzes sensibler Daten mit BigQuery.
Kurzanleitungen
- Kurzanleitung: Inspektionsscan zum Schutz sensibler Daten planen
- Regelmäßige Prüfung eines Cloud Storage-Buckets, einer BigQuery-Tabelle oder einer Datastore-Art planen. Eine ausführliche Anleitung finden Sie unter Inspektionsjobs zum Schutz sensibler Daten erstellen und planen.
Anleitungen
Dieser Abschnitt enthält eine kategorisierte Liste von aufgabenbasierten Leitfäden, in denen gezeigt wird, wie Sie den Schutz sensibler Daten mit BigQuery verwenden.
Prüfung
- Speicher und Datenbanken auf sensible Daten prüfen
- Erstellen Sie einen einmaligen Job, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht.
- Inspektionsjobs zum Schutz sensibler Daten erstellen und planen
- Erstellen und planen Sie einen Job-Trigger, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht. Ein Job-Trigger automatisiert die regelmäßige Erstellung von Jobs zum Schutz sensibler Daten.
Mit Scanergebnissen arbeiten
- Ergebnisse von Scans zum Schutz sensibler Daten an Data Catalog senden
- Scannen Sie eine BigQuery-Tabelle und senden Sie die Ergebnisse dann an Data Catalog, um automatisch Tags basierend auf den Ergebnissen zum Schutz sensibler Daten zu erstellen.
- Ergebnisse von Scans zum Schutz sensibler Daten an Security Command Center senden
- Scannen Sie einen Cloud Storage-Bucket, eine BigQuery-Tabelle oder einen Datastore und senden Sie die Ergebnisse an das Security Command Center.
- Ergebnisse zum Schutz sensibler Daten analysieren und Berichte dazu erstellen
- Mit BigQuery Analysen zum Schutz sensibler Daten ausführen
- Ergebnisse für den Schutz sensibler Daten in BigQuery abfragen
- Sehen Sie sich Beispielabfragen an, die Sie in BigQuery verwenden können, um Ergebnisse zu analysieren, die durch den Schutz sensibler Daten identifiziert wurden.
Re-Identifikations-Risikoanalyse
- Risiko der Re-Identifikation und Offenlegung messen
Analysieren Sie strukturierte Daten, die in einer BigQuery-Tabelle gespeichert sind, und berechnen Sie die folgenden Messwerte zur Re-Identifikation:
- Numerische und kategorische Statistiken berechnen
Bestimmen die Mindest-, Höchst- und Quantilwerte für eine einzelne BigQuery-Spalte.
- Risiko der Re-Identifikation mit Looker Studio visualisieren
Messen Sie die k-Anonymität eines Datasets und visualisieren Sie es dann in Looker Studio.
Tutorials
- BigQuery-Daten zum Zeitpunkt der Abfrage de-identifizieren
- In dieser Schritt-für-Schritt-Anleitung werden BigQuery-Remote-Funktionen verwendet, um Daten in Echtzeit-Abfrageergebnissen zu de-identifizieren und zu re-identifizieren.
- Personenidentifizierbare Informationen in umfangreichen Datasets mit Schutz sensibler Daten de-identifizieren und re-identifizieren
- Sehen Sie sich eine Referenzarchitektur zum Erstellen einer automatisierten Pipeline zur Datentransformation an, mit der sensible Daten wie personenidentifizierbare Informationen de-identifiziert werden.
Best Practices
- BigQuery Data Warehouse sichern, in dem vertrauliche Daten gespeichert werden
- Architekturübersicht und Best Practices für Data Governance beim Erstellen, Bereitstellen und Betreiben eines Data Warehouse in Google Cloud, einschließlich der De-Identifikation von Daten, der differenziellen Handhabung vertraulicher Daten und der Zugriffssteuerung auf Spaltenebene.
Communitybeiträge
Die folgenden Konten gehören den Communitymitgliedern und werden nicht vom Team für den Schutz sensibler Daten verwaltet. Wenden Sie sich bei Fragen zu diesen Elementen an die entsprechenden Inhaber.
- Data Catalog-Tags erstellen, indem BigQuery-Daten mit dem Schutz sensibler Daten geprüft werden
- Prüfen Sie BigQuery-Daten mit der Cloud Data Loss Prevention API und verwenden Sie dann die Data Catalog API, um Tags auf Spaltenebene zu erstellen. Dabei werden die sensiblen Elemente berücksichtigt, die der Schutz sensibler Daten gefunden hat.
- Ereignisgesteuerte serverlose Planungsarchitektur mit Schutz sensibler Daten
- Richten Sie eine ereignisgesteuerte, serverlose Planungsanwendung ein, die BigQuery-Daten mithilfe der Cloud Data Loss Prevention API prüft.
- Anomalieerkennung in Echtzeit mit Google Cloud-Streamanalysen und AI-Diensten
- Hier erfahren Sie, wie Sie ein KI-Muster in Echtzeit zur Erkennung von Anomalien in Logdateien durcharbeiten. Dieses Proof of Concept verwendet Pub/Sub, Dataflow, BigQuery ML und den Schutz sensibler Daten.
- Relationaler Datenbankimport in BigQuery mit Dataflow und dem Schutz sensibler Daten
- Mit Dataflow und dem Schutz sensibler Daten können Sie Daten sicher tokenisieren und aus einer relationalen Datenbank in BigQuery importieren. In diesem Beispiel wird beschrieben, wie personenbezogene Daten tokenisiert werden, bevor sie dauerhaft werden.
Preise
Beim Prüfen einer BigQuery-Tabelle fallen Kosten für den Schutz sensibler Daten gemäß den Preisen für Speicherinspektionsjobs an.
Wenn Sie Inspektionsergebnisse in einer BigQuery-Tabelle speichern, fallen außerdem BigQuery-Gebühren an.