Diese Seite enthält Verweise auf Seiten mit Informationen zur Verwendung des Schutzes sensibler Daten mit BigQuery.
Kurzanleitungen
- Kurzanleitung: Scan für die Prüfung auf sensible Daten planen
- Regelmäßige Prüfung eines Cloud Storage-Buckets, einer BigQuery-Tabelle oder einer Datastore-Art planen. Eine ausführliche Anleitung finden Sie unter Inspektionsjobs für den Schutz sensibler Daten erstellen und planen.
Anleitungen
Dieser Abschnitt enthält eine kategorisierte Liste mit aufgabenbasierten Leitfäden, die zeigen, wie der Schutz sensibler Daten mit BigQuery verwendet wird.
Prüfung
- Speicher und Datenbanken auf sensible Daten prüfen
- Erstellen Sie einen einmaligen Job, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht.
- Inspektionsjobs für den Schutz sensibler Daten erstellen und planen
- Erstellen und planen Sie einen Job-Trigger, der in einem Cloud Storage-Bucket, einer BigQuery-Tabelle oder einer Datastore-Art nach vertraulichen Daten sucht. Ein Job-Trigger automatisiert die Erstellung von Sensitive Data Protection-Jobs in regelmäßigen Abständen.
Mit Scanergebnissen arbeiten
- Scanergebnisse für den Schutz sensibler Daten an Data Catalog senden
- Scannen Sie eine BigQuery-Tabelle und senden Sie die Ergebnisse an Data Catalog, um Tags anhand von Ergebnissen des Schutzes sensibler Daten automatisch zu erstellen.
- Scanergebnisse zum Schutz sensibler Daten an das Security Command Center senden
- Scannen Sie einen Cloud Storage-Bucket, eine BigQuery-Tabelle oder einen Datastore und senden Sie die Ergebnisse an das Security Command Center.
- Ergebnisse der Prüfung auf sensible Daten analysieren und Berichte erstellen
- Nutzen Sie BigQuery, um Analysen zu Ergebnissen des Schutzes sensibler Daten auszuführen.
- Ergebnisse zum Schutz sensibler Daten in BigQuery abfragen
- Rufen Sie Beispielabfragen auf, mit denen Sie in BigQuery Ergebnisse analysieren können, die der Schutz sensibler Daten identifiziert hat.
Re-Identifikations-Risikoanalyse
- Messung des Risikos von Re-Identifikation und Offenlegung
Analysieren Sie strukturierte Daten, die in einer BigQuery-Tabelle gespeichert sind, und berechnen Sie die folgenden Messwerte zur Re-Identifikation:
- Numerische und kategorische Statistiken berechnen
Bestimmen die Mindest-, Höchst- und Quantilwerte für eine einzelne BigQuery-Spalte.
- Risiko der Re-Identifizierung mit Looker Studio visualisieren
Messen Sie die k-Anonymität eines Datasets und visualisieren Sie sie dann in Looker Studio.
Tutorials
- BigQuery-Daten zum Zeitpunkt der Abfrage de-identifizieren
- In dieser Anleitung zeigen wir Ihnen Schritt für Schritt, wie Sie mithilfe von BigQuery-Remotefunktionen Daten in Echtzeit-Abfrageergebnissen de-identifizieren und wieder identifizieren.
- Personenidentifizierbare Informationen in umfangreichen Datasets mit Schutz sensibler Daten de-identifizieren und re-identifizieren
- Referenzarchitektur für die Erstellung einer automatisierten Pipeline zur Datentransformation, mit der sensible Daten wie personenidentifizierbare Informationen (PII) de-identifiziert werden.
Best Practices
- BigQuery-Data-Warehouse sichern, in dem vertrauliche Daten gespeichert werden
- Architekturübersicht und Best Practices für die Data Governance beim Erstellen, Bereitstellen und Ausführen eines Data Warehouse in Google Cloud, einschließlich De-Identifikation von Daten, differenzieller Verarbeitung vertraulicher Daten und Zugriffssteuerung auf Spaltenebene.
Communitybeiträge
Die folgenden Inhalte gehören Community-Mitgliedern und werden von diesen verwaltet, nicht vom Team für den Schutz sensibler Daten. Wenden Sie sich bei Fragen zu diesen Elementen an die entsprechenden Inhaber.
- Data Catalog-Tags durch Untersuchen von BigQuery-Daten mithilfe von Sensitive Data Protection erstellen
- Untersuchen Sie BigQuery-Daten mit der Cloud Data Loss Prevention API und erstellen Sie dann mit der Data Catalog API Tags auf Spaltenebene gemäß den von Sensitive Data Protection ermittelten vertraulichen Elementen.
- Ereignisbasierte serverlose Planungsarchitektur mit Schutz sensibler Daten
- Richten Sie eine ereignisgesteuerte, serverlose Planungsanwendung ein, die BigQuery-Daten mithilfe der Cloud Data Loss Prevention API prüft.
- Anomalieerkennung in Echtzeit mit Google Cloud-Streamanalysen und AI-Diensten
- Hier erfahren Sie, wie Sie ein KI-Muster in Echtzeit zur Erkennung von Anomalien in Logdateien durcharbeiten. In diesem Proof of Concept werden Pub/Sub, Dataflow, BigQuery ML und der Schutz sensibler Daten verwendet.
- Import einer relationalen Datenbank in BigQuery mit Dataflow und Schutz sensibler Daten
- Mit Dataflow und dem Schutz sensibler Daten können Sie Daten aus einer relationalen Datenbank sicher tokenisieren und in BigQuery importieren. In diesem Beispiel wird beschrieben, wie personenbezogene Daten tokenisiert werden, bevor sie dauerhaft werden.
Preise
Wenn Sie eine BigQuery-Tabelle prüfen, fallen Kosten für den Schutz sensibler Daten gemäß den Preisen für Speicherprüfungsjobs an.
Wenn Sie Inspektionsergebnisse in einer BigQuery-Tabelle speichern, fallen außerdem BigQuery-Gebühren an.