Blogposts, Lösungen und Videos

Gelegentlich veröffentlichen wir Artikel, Blogposts und Videos zu Cloud Data Loss Prevention (DLP). Sie sind hier aufgelistet.

Blogposts

Compliance genügt nicht: Neue DLP-Ansätze für die Cloud-orientierte Welt von heute

Ein Blick zurück auf die Entwicklung von DLP ist sinnvoll, bevor eine Diskussion über den Einsatz von DLP in der heutigen Umgebung, einschließlich Compliance, Sicherheits- und Datenschutzanwendungsfällen, geführt werden kann.

Blogpost lesen: "Compliance genügt nicht: Neue DLP-Ansätze für die Cloud-orientierte Welt von heute"

Sensible Daten mit nur wenigen Mausklicks erfassen

Hier wird die Benutzeroberfläche der Google Cloud Console für Cloud DLP eingehender erläutert. Sie erfahren, wie Sie Ihre Unternehmensdaten mit nur wenigen Mausklicks untersuchen können.

Blogpost lesen: "Take charge of your data: Scan for sensitive data in just a few clicks"

Daten durch Tokenisierung nutzbar machen, ohne den Datenschutz zu beeinträchtigen

Die Tokenisierung, manchmal auch als Pseudonymisierung oder Wertersetzung bezeichnet, wird in Branchen wie der Finanzbranche und dem Gesundheitswesen häufig verwendet, um die Nutzung von aktiven Daten zu verringern, den Compliance-Bereich zu verkleinern und vertrauliche Daten so selten wie möglich für System sichtbar zu machen, die sie nicht benötigen. Mit Cloud DLP können Kunden die Tokenisierung mit minimalem Aufwand in großem Maßstab durchführen.

Blogpost lesen: "Take charge of your data: How tokenization makes data usable without sacrificing privacy"

Cloud DLP zur De-Identifikation und Verschleierung vertraulicher Informationen verwenden

Das Team erläutert, wie Sie Cloud DLP zum Schutz von Daten nutzen können, indem Sie Datenverschleierungs- und -minimierungstechniken automatisch in Ihre Workflows einbinden.

Blogpost lesen: "Take charge of your data: using Cloud DLP to de-identify and obfuscate sensitive information"

Cloud DLP zum Suchen und Schützen von personenbezogenen Daten verwenden

Scott Ellis, Cloud DLP Product Manager, erläutert, wie Sie Cloud DLP zur Verbesserung des Datenschutzes einsetzen können.

Blogpost lesen: "Take charge of your data: Using Cloud DLP to find and protect PII"

BigQuery mit Cloud DLP scannen

Das Team erläutert, wie Sie BigQuery ganz einfach über die Cloud Console scannen können.

Blogpost lesen: "Scan BigQuery for sensitive data using Cloud DLP"

Lösungen

Cloud DLP-Filter für Envoy

Cloud DLP-Filter für Envoy ist ein WebAssembly("Wasm")-HTTP-Filter für Envoy-Sidecar-Proxys innerhalb eines Istio-Service-Meshs. Der DLP-Filter für Envoy erfasst den Traffic auf Proxy-Ebene und sendet ihn zur Prüfung an Cloud DLP, wo die Nutzlast auf sensible Daten, einschließlich personenbezogener Daten, gescannt wird.

GitHub: Cloud DLP-Filter für Envoy

Anomalieerkennung mit Streaminganalysen und KI

In diesem Beitrag gehen wir ein Echtzeit-KI-Muster zur Erkennung von Anomalien in Logdateien durch. Durch die Analyse und Extrahierung von Features aus Netzwerklogs haben wir einem Telekommunikationsunternehmen dabei geholfen, eine Streaminganalyse-Pipeline zu erstellen, um Anomalien festzustellen. Außerdem wird erläutert, wie Sie dieses Muster an die Echtzeitanforderungen Ihrer Organisation anpassen können. Dieser Proof of Concept-Lösung verwendet Pub/Sub, Dataflow, BigQuery ML und Cloud DLP.

Blogpost lesen: "Anomaly detection using streaming analytics & AI"

Anleitung "Echtzeit-Anomalieerkennung mit Google Cloud Streamanalyse- und KI-Diensten"

Personenidentifizierbare Informationen in umfangreichen Datasets mit Cloud DLP de-identifizieren und re-identifizieren

Diese Lösung zeigt, wie Sie mit Cloud DLP eine automatisierte Pipeline zur Datentransformation erstellen können, um sensible Daten, wie etwa personenidentifizierbare Informationen, zu de-identifizieren.

Anleitung lesen: "De-identification and re-identification of PII in large-scale datasets using Cloud DLP"

Klassifizierung der in Cloud Storage hochgeladenen Daten automatisieren

In dieser Anleitung wird gezeigt, wie Sie mithilfe von Cloud Storage und anderen Google Cloud-Produkten ein automatisiertes System zur Datenquarantäne und -klassifizierung implementieren.

Anleitung lesen: "Klassifizierung der in Cloud Storage hochgeladenen Daten automatisieren"

Datentokenisierung mit Dataflow/Beam und der DLP API

Diese Prüfungs- und Migrationslösung liest strukturierte und unstrukturierte Daten aus Speichersystemen wie Amazon S3 und Cloud Storage. Daten können mithilfe der DLP API automatisch de-identifiziert und an BigQuery und Cloud Storage gesendet werden.

GitHub: "Data Tokenization PoC Using Dataflow/Beam and DLP API"

Beispiel einer Dataflow-Vorlage zum De-Identifizieren gespeicherter Daten

Mit dieser Beispielvorlage wird eine Streamingpipeline erstellt, um vertrauliche Daten zu transformieren.

GitHub: DataflowTemplates/DLPTextToBigQueryStreaming.java

Relationaler Datenbankimport in BigQuery mit Dataflow

Bei diesem Proof of Concept werden Dataflow und Cloud DLP verwendet, um Daten sicher zu tokenisieren und aus einer relationalen Datenbank in BigQuery zu importieren. Im Beispiel wird beschrieben, wie Sie diese Pipeline mit einer in Google Kubernetes Engine erstellten SQL Server-Beispieldatenbank verwenden und eine DLP-Vorlage verwenden, um personenidentifizierbare Informationen zu tokenisieren, bevor sie gespeichert werden.

GitHub: "Relational Database Import to BigQuery with Dataflow and Cloud DLP"

Beispielarchitektur für die Verwendung eines Cloud DLP-Proxys zum Abfragen einer Datenbank mit sensiblen Daten

Bei dieser Proof of Concept-Architektur wird ein Proxy verwendet, um alle Abfragen und Ergebnisse über einen Dienst zu übergeben, der die Ergebnisse parst, untersucht und dann entweder in Logs speichert oder mit Cloud DLP de-identifiziert. Anschließend werden die angeforderten Daten an den Nutzer zurückgegeben. Wenn die Datenbank bereits tokenisierte Daten speichert, kann mit diesem Proxy-Konzept auch die Tokenisierung aufgehoben werden, bevor die angeforderten Daten zurückgegeben werden. Anleitung lesen: "Example architecture for using a DLP proxy to query a database containing sensitive data"

Videos

Cloud OnAir: Sensible Datasets in Google Cloud schützen

Daten gehören zu den wertvollsten Ressourcen Ihres Unternehmens. Mit Analytics und maschinellem Lernen können Sie hilfreiche Dienste für Ihre Kunden und Ihr Unternehmen bereitstellen. Diese Datasets können auch sensible Daten enthalten, die geschützt werden müssen. In diesem Webinar erfahren Sie, wie Sie mit Cloud DLP im Rahmen einer übergeordneten Governance-Strategie vertrauliche Daten ermitteln, klassifizieren und de-identifizieren.

YouTube: Cloud OnAir: Protecting sensitive datasets in Google Cloud

Cloud Next 2019: Scotiabank stellt ihren cloudnativen Ansatz für das Aufnahmen personenidentifizierbarer Informationen in Google Cloud vor

Die große internationale Bank Scotiabank erläutert ihren Weg in Sachen Sicherheit und ihren cloudnativen Ansatz hinsichtlich der Aufnahme personenidentifizierbarer Informationen in Google Cloud, der Beschränken des Zugriffs und der Frage, wie sie kontrolliert gezielten Bankanwendungen die Re-Identifikation gestattet hat.

YouTube: Comprehensive Protection of PII in Google Cloud (Cloud Next '19)

Cloud Next 2019: Sensible Daten in der Cloud identifizieren und schützen

Das Team stellt die neuesten Verbesserungen bei Cloud DLP vor und zeigt verschiedene Techniken zum Schutz vertraulicher Daten.

YouTube: Identify and Protect Sensitive Data in the Cloud: Latest Innovations in Google Cloud (Cloud Next '19)