Blogposts, Lösungen und Videos

Gelegentlich veröffentlichen wir Artikel, Blogposts und Videos zu Cloud Data Loss Prevention (DLP). Sie sind hier aufgelistet.

Blogposts

Compliance genügt nicht: Neue DLP-Ansätze für die Cloud-orientierte Welt von heute

Ein Blick zurück auf die Entwicklung von DLP ist sinnvoll, bevor eine Diskussion über den Einsatz von DLP in der heutigen Umgebung, einschließlich Compliance, Sicherheits- und Datenschutzanwendungsfällen, geführt werden kann.

Blogpost lesen: "Compliance genügt nicht: Neue DLP-Ansätze für die Cloud-orientierte Welt von heute"

Sensible Daten mit nur wenigen Mausklicks erfassen

Hier wird die Benutzeroberfläche der Google Cloud Console für Cloud DLP eingehender erläutert. Sie erfahren, wie Sie Ihre Unternehmensdaten mit nur wenigen Mausklicks untersuchen können.

Blogpost lesen: "Take charge of your data: Scan for sensitive data in just a few clicks"

Daten durch Tokenisierung nutzbar machen, ohne den Datenschutz zu beeinträchtigen

Die Tokenisierung, manchmal auch als Pseudonymisierung oder Wertersetzung bezeichnet, wird in Branchen wie der Finanzbranche und dem Gesundheitswesen häufig verwendet, um die Nutzung von aktiven Daten zu verringern, den Compliance-Bereich zu verkleinern und vertrauliche Daten so selten wie möglich für System sichtbar zu machen, die sie nicht benötigen. Mit Cloud DLP können Kunden die Tokenisierung mit minimalem Aufwand in großem Maßstab durchführen.

Blogpost lesen: "Take charge of your data: How tokenization makes data usable without sacrificing privacy"

Cloud DLP zur De-Identifikation und Verschleierung vertraulicher Informationen verwenden

Das Team erläutert, wie Sie Cloud DLP zum Schutz von Daten nutzen können, indem Sie Datenverschleierungs- und -minimierungstechniken automatisch in Ihre Workflows einbinden.

Blogpost lesen: "Take charge of your data: using Cloud DLP to de-identify and obfuscate sensitive information"

Cloud DLP zum Suchen und Schützen von personenbezogenen Daten verwenden

Scott Ellis, Cloud DLP Product Manager, erläutert, wie Sie Cloud DLP zur Verbesserung des Datenschutzes einsetzen können.

Blogpost lesen: "Take charge of your data: Using Cloud DLP to find and protect PII"

BigQuery mit Cloud DLP scannen

Das Team teilt Ihnen mit, wie BigQuery von der Cloud Console aus problemlos gescannt werden kann.

Blogpost lesen: "Scan BigQuery for sensitive data using Cloud DLP"

Lösungen

Cloud DLP-Hybridprüfung für SQL-Datenbanken mit JDBC

In dieser Anleitung wird gezeigt, wie Sie mit der Cloud DLP-Hybridprüfmethode mit einem JDBC-Treiber Tabellenbeispiele in einer SQL-Datenbank wie MySQL, SQL Server oder PostgreSQL praktisch überall ausführen können.

Anleitung lesen: "Cloud DLP-Hybridprüfung für SQL-Datenbanken mit JDBC"

Speech Redaction Framework mit Cloud DLP

Diese Anleitung enthält eine Sammlung von Komponenten und Code, mit dem Sie vertrauliche Informationen aus Audiodateien entfernen können. Mit in Cloud Storage hochgeladenen Dateien können sie vertrauliche Ergebnisse ermitteln und schreiben oder vertrauliche Informationen aus der Audiodatei entfernen.

Zusätzlich enthält eine weitere Anleitung das Speech Analysis Framework eine Sammlung von Komponenten und Code, mit dem Sie Audioinhalte transkribieren, eine Datenpipeline zur Analyse von transkribierten Audiodateien erstellen und vertrauliche Informationen aus Audiotranskriptionen mit Cloud DLP

GitHub: "Speech Redaction Framework"

GitHub: "Speech Analysis Framework"

Ereignisgesteuerte serverlose Architektur mit Cloud DLP

Diese Anleitung zeigt eine einfache, aber effektive und skalierbare ereignisgesteuerte serverlose Planungsplanung mit Google Cloud-Diensten. Das Beispiel zeigt, wie Sie mit der DLP API BigQuery-Daten untersuchen können.

Anleitung lesen: "Ereignisbasierte serverlose Planungsarchitektur mit Cloud DLP"

Cloud DLP-Filter für Envoy

Cloud DLP-Filter für Envoy ist ein WebAssembly("Wasm")-HTTP-Filter für Envoy-Sidecar-Proxys innerhalb eines Istio-Service-Meshs. Der DLP-Filter für Envoy erfasst den Traffic auf Proxy-Ebene und sendet ihn zur Prüfung an Cloud DLP, wo die Nutzlast auf sensible Daten, einschließlich personenbezogener Daten, gescannt wird.

GitHub: Cloud DLP-Filter für Envoy

Anomalieerkennung mit Streaminganalysen und KI

In diesem Beitrag wird ein Echtzeit-KI-Muster erläutert, um Anomalien in Logdateien zu erkennen. Durch das Analysieren und Extrahieren von Features aus Netzwerklogs haben wir einen Telearbeitskunden dabei unterstützt, eine Streaminganalyse-Pipeline zu erstellen, um Anomalien zu erkennen. Außerdem wird erläutert, wie Sie dieses Muster an die Echtzeit-Anforderungen Ihrer Organisation anpassen können. Dieser Proof of Concept-Lösung verwendet Pub/Sub, Dataflow, BigQuery ML und Cloud DLP.

Blogpost lesen: "Anomaly detection using streaming analytics & AI"

Anleitung "Echtzeit-Anomalieerkennung mit Google Cloud Streamanalyse- und KI-Diensten"

Personenidentifizierbare Informationen in umfangreichen Datasets mit Cloud DLP de-identifizieren und re-identifizieren

Diese Lösung zeigt, wie Sie mit Cloud DLP eine automatisierte Pipeline zur Datentransformation erstellen können, um sensible Daten, wie etwa personenidentifizierbare Informationen, zu de-identifizieren. Diese Inspektions- und Migrationslösung liest strukturierte und unstrukturierte Daten aus Speichersystemen wie Amazon S3 und Cloud Storage. Daten können mithilfe der DLP API automatisch de-identifiziert und an BigQuery und Cloud Storage gesendet werden.

Anleitung lesen: "De-identification and re-identification of PII in large-scale datasets using Cloud DLP"

GitHub: "Data Tokenization PoC Using Dataflow/Beam and DLP API"

Klassifizierung der in Cloud Storage hochgeladenen Daten automatisieren

In dieser Anleitung wird gezeigt, wie Sie mithilfe von Cloud Storage und anderen Google Cloud-Produkten ein automatisiertes System zur Datenquarantäne und -klassifizierung implementieren.

Anleitung lesen: "Klassifizierung der in Cloud Storage hochgeladenen Daten automatisieren"

Relationaler Datenbankimport in BigQuery mit Dataflow

Bei diesem Proof of Concept werden Dataflow und Cloud DLP verwendet, um Daten sicher zu tokenisieren und aus einer relationalen Datenbank in BigQuery zu importieren. Im Beispiel wird beschrieben, wie Sie diese Pipeline mit einer in Google Kubernetes Engine erstellten SQL Server-Beispieldatenbank verwenden und eine DLP-Vorlage verwenden, um personenidentifizierbare Informationen zu tokenisieren, bevor sie gespeichert werden.

GitHub: "Relational Database Import to BigQuery with Dataflow and Cloud DLP"

Beispielarchitektur für die Verwendung eines Cloud DLP-Proxys zum Abfragen einer Datenbank mit sensiblen Daten

Bei dieser Proof of Concept-Architektur wird ein Proxy verwendet, um alle Abfragen und Ergebnisse über einen Dienst zu übergeben, der die Ergebnisse parst, untersucht und dann entweder in Logs speichert oder mit Cloud DLP de-identifiziert. Anschließend werden die angeforderten Daten an den Nutzer zurückgegeben. Wenn die Datenbank bereits tokenisierte Daten speichert, kann mit diesem Proxy-Konzept auch die Tokenisierung aufgehoben werden, bevor die angeforderten Daten zurückgegeben werden. Anleitung lesen: "Example architecture for using a DLP proxy to query a database containing sensitive data"

Videos

Cloud Next '20: OnAir: Sensible Daten in Hybridumgebungen verwalten

In Unternehmensumgebungen befinden sich sensible Daten sowohl in der Cloud als auch in der Cloud. Diese Daten müssen auf jedem Gerät richtig verwaltet werden. In dieser Sitzung erfahren Sie, wie Sie mit Cloud DLP Daten verwalten können. Dabei geht es insbesondere um die Überprüfung von Inhalten in Hybridumgebungen wie lokale Datenbanken, auf virtuellen Maschinen ausgeführte Dateien und auf Cloud-Anbieter können auch Daten, die in Kubernetes übertragen werden, und vieles mehr.

YouTube: SEC206: Managing Sensitive Data in Hybrid Environments

Anleitung: "Cloud DLP-Filter für Envoy"

Anleitung lesen: "Cloud DLP-Hybridprüfung für SQL-Datenbanken mit JDBC"

Cloud OnAir: Sensible Datasets in Google Cloud schützen

Daten gehören zu den wertvollsten Ressourcen Ihres Unternehmens. Mit Analytics und maschinellem Lernen können Sie hilfreiche Dienste für Ihre Kunden und Ihr Unternehmen bereitstellen. Diese Datasets können auch sensible Daten enthalten, die geschützt werden müssen. In diesem Webinar erfahren Sie, wie Sie mit Cloud DLP im Rahmen einer übergeordneten Governance-Strategie vertrauliche Daten ermitteln, klassifizieren und de-identifizieren.

YouTube: Cloud OnAir: Protecting sensitive datasets in Google Cloud

Cloud Next 2019: Scotiabank stellt ihren cloudnativen Ansatz für das Aufnahmen personenidentifizierbarer Informationen in Google Cloud vor

Die große internationale Bank Scotiabank erläutert ihren Weg in Sachen Sicherheit und ihren cloudnativen Ansatz hinsichtlich der Aufnahme personenidentifizierbarer Informationen in Google Cloud, der Beschränken des Zugriffs und der Frage, wie sie kontrolliert gezielten Bankanwendungen die Re-Identifikation gestattet hat.

YouTube: Comprehensive Protection of PII in Google Cloud (Cloud Next '19)

Cloud Next 2019: Sensible Daten in der Cloud identifizieren und schützen

Das Team stellt die neuesten Verbesserungen bei Cloud DLP vor und zeigt verschiedene Techniken zum Schutz vertraulicher Daten.

YouTube: Identify and Protect Sensitive Data in the Cloud: Latest Innovations in Google Cloud (Cloud Next '19)