Hinweise zu sensiblen Daten in Datasets für maschinelles Lernen

Wenn Sie ein Programm für maschinelles Lernen (ML) entwickeln, ist ein ausgewogenes Maß an Datenzugriff und Datensicherheit innerhalb Ihres Unternehmens wichtig. Das Ziel ist, selbst bei eingeschränktem Zugriff auf sensible Daten die in den Roh-Datasets enthaltenen Informationen für das ML-Training zu nutzen. Um dies zu erreichen, bietet es sich an, ML-Systeme mit einer Teilmenge der Rohdaten zu trainieren. Alternativ kann auch das gesamte Dataset genutzt werden, nachdem darauf teilweise diverse Aggregations- oder Verschleierungstechniken angewendet wurden.

Nehmen wir beispielsweise an, Ihre Data Engineers sollen ein ML-Modell trainieren, um das Kundenfeedback zu einem Produkt in anonymisierter Form zu gewichten, d. h. ohne zu wissen, von wem es stammt. Gewisse Informationen, etwa über die Lieferadresse und bisherige Käufe, sind jedoch für das Training des ML-Modells entscheidend. Die Data Engineers müssen die ihnen zur Verfügung gestellten Daten zu Datenexplorationszwecken abfragen können. Daher ist es wichtig, Felder mit sensiblen Daten vor der Bereitstellung zu schützen. Dies ist auch bei ML-Modellen mit Empfehlungssystemen eine gängige Herausforderung. Um ein Modell zu erstellen, das nutzerspezifische Ergebnisse zurückgibt, benötigen Sie in der Regel Zugriff auf benutzerspezifische Daten.

Es gibt jedoch Techniken, mit denen Sie einen Teil der sensiblen Daten aus den Datasets entfernen und dennoch effektive ML-Modelle trainieren können. In diesem Artikel werden verschiedene Strategien zum Identifizieren und Schützen vertraulicher Informationen erläutert. Außerdem erfahren Sie, wie Sie Sicherheitsbedenken hinsichtlich Ihrer ML-Daten behandeln können.

Vertrauliche Informationen verarbeiten

Vertrauliche Informationen sind jegliche Daten, die Sie und Ihr Rechtsbeistand durch zusätzliche Sicherheitsmaßnahmen, wie etwa eingeschränkten Zugriff oder Verschlüsselung, schützen möchten. Als vertraulich gelten beispielsweise Felder für Namen, E-Mail-Adressen, Rechnungsinformationen oder Daten, die es einem Data Engineer oder böswilligen Akteur ermöglichen könnten, die vertraulichen Informationen indirekt abzuleiten.

Standards wie HIPAA und PCI-DSS definieren eine Reihe von Best Practices für den Schutz vertraulicher Daten. Gleichzeitig geben sie Kunden Auskunft über die Handhabung ihrer vertraulichen Daten. Kunden können mit diesen Zertifizierungen fundierte Entscheidungen hinsichtlich der Sicherheit ihrer Informationen treffen.

Die Verarbeitung vertraulicher Daten in Datasets für maschinelles Lernen kann aus folgenden Gründen eine Herausforderung sein:

  • Die meisten rollenbasierten Sicherheitsfunktionen richten sich nach dem Konzept der Inhaberschaft. Nutzer können ihre eigenen Daten anzeigen und/oder bearbeiten, haben aber keinen Zugriff auf die Daten anderer Nutzer. Das Konzept der Inhaberschaft scheitert bei ML-Datasets, die aus den Daten zahlreicher Nutzer aggregiert werden. Im Wesentlichen benötigen Data Engineers für die effektive Nutzung des Datasets Lesezugriff auf den vollständigen Satz von Daten.
  • Als Sicherheitsmaßnahmen werden vertrauliche Felder häufig verschlüsselt oder durch Reduzierung der Auflösung unkenntlich gemacht. Dies reicht für ein ML-Dataset jedoch nicht immer aus. Das aggregierte Dataset bietet häufig selbst die Möglichkeit zur Entschlüsselung durch Häufigkeitsanalysen.
  • Die Vergabe von Tokens nach dem Zufallsprinzip sowie das Unterdrücken oder Entfernen der vertraulichen Felder aus dem Dataset kann das effektive ML-Modelltraining beeinträchtigen. Die Verschleierung erforderlicher Daten führt zu mangelhaften Vorhersagen.

Organisationen entwickeln oft Tools und eine Reihe von Best Practices, um ein ausgewogenes Verhältnis von Sicherheit und Nutzen zu schaffen. Beachten Sie zum Schutz vertraulicher Daten in ML-Datasets die folgenden drei Punkte, die im weiteren Verlauf dieses Artikels erläutert werden:

  • Identifizieren Sie vertrauliche Daten im Dataset mit hoher Zuverlässigkeit.
  • Schützen Sie vertrauliche Daten, ohne das Projekt zu beeinträchtigen. Dies ist durch Entfernen, Maskieren oder Vergröbern der vertraulichen Daten möglich.
  • Erstellen Sie einen Governance-Plan und eine Best Practices-Dokumentation. Auf diese Weise können sowohl Ihre Data Engineers als auch Ihre Kunden angemessene Entscheidungen hinsichtlich vertraulicher Daten treffen. Dies gilt insbesondere dann, wenn sich die vertraulichen Daten nicht zuverlässig identifizieren, maskieren oder entfernen lassen.

Auf diese drei Faktoren wird in den folgenden Abschnitten ausführlich eingegangen. Der Schwerpunkt gilt Szenarien, in denen Ihre Datasets innerhalb Ihres Unternehmens privat bleiben. In diesem Artikel werden keine Szenarien behandelt, in denen die Datasets öffentlich freigegeben werden sollen.

Vertrauliche Daten identifizieren

Vertrauliche Daten können in Ihrer Umgebung in verschiedenen Szenarien vorkommen. In den folgenden Abschnitten werden fünf der häufigsten Szenarien sowie aktuelle Methoden erläutert, mit denen Sie jeweils vertrauliche Daten identifizieren können.

Vertrauliche Daten in Spalten

Vertrauliche Daten kommen in strukturierten Datasets mitunter nur in bestimmten Spalten vor. Sie haben möglicherweise eine Reihe von Spalten mit dem Vor- und Nachnamen sowie der Postanschrift von Nutzern. Ermitteln Sie in diesem Fall, welche Spalten vertrauliche Daten enthalten, entscheiden Sie, wie diese geschützt werden sollen und dokumentieren Sie die Entscheidungen.

Vertrauliche Daten in unstrukturierten textbasierten Datasets

Vertrauliche Daten können Teil eines unstrukturierten textbasierten Datasets sein und lassen sich oft mithilfe bekannter Muster erkennen. Zum Beispiel können Kreditkartennummern in Chat-Transkripten zuverlässig mithilfe eines gängigen Musters für reguläre Ausdrücke für Kreditkartennummern erkannt werden. Fehler bei der Erkennung regulärer Ausdrücke, die zu Fehlklassifizierungen führen, lassen sich mit komplexeren Tools wie der Cloud Data Loss Prevention API (DLP) minimieren.

Vertrauliche Daten in unstrukturierten Freitextdaten

Vertrauliche Daten können in unstrukturierten Freitextdaten wie Textberichten, Audioaufzeichnungen, Fotos oder gescannten Belegen vorkommen. Diese Datasets erschweren die Identifizierung vertraulicher Daten erheblich. Hierfür stehen jedoch zahlreiche Tools zur Verfügung.

  • Bei Freitextdokumenten bietet sich ein NLP-System (Natural Language Processing) wie die Cloud Natural Language API an, das Entitäten, E-Mail-Adressen und andere vertrauliche Daten identifiziert.
  • Bei Audioaufnahmen können Sie einen Spracherkennungsdienst wie die Cloud Speech API nutzen und anschließend das NLP-System anwenden.
  • Bei Bildern können Sie mithilfe eines Texterkennungsdiensts wie der Cloud Vision API Rohtext aus dem Bild erfassen und die Textposition im Bild isolieren. Die Vision API kann die Positionskoordinaten bestimmter Objekte in Bildern liefern. Diese Informationen eignen sich beispielsweise, um in Bildern die Gesichter aller an einer Kasse anstehenden Kunden zu maskieren, bevor ein ML-Modell zum Schätzen der durchschnittlichen Wartezeit von Kunden trainiert wird.
  • Bei Videos können Sie jedes Video in einzelne Frames parsen und diese als Bilddateien behandeln. Oder Sie verwenden ein Videobearbeitungstool wie die Cloud Video Intelligence API zusammen mit der Cloud Speech API für die Audioverarbeitung.

Diese Techniken sind dennoch von Ihrem eigenen Rechtsbeistand zu prüfen und zu genehmigen. Außerdem kommt es darauf an, wie gut Ihre Systeme Freitext verarbeiten, Audio transkribieren, Bilder verstehen und Videos segmentieren können, um potenziell vertrauliche Daten zu identifizieren. Die oben aufgeführten Google APIs und Cloud DLP sind leistungsstarke Tools, die Sie in Ihre Vorverarbeitungspipeline einbinden können. Diese automatisierten Methoden sind jedoch nicht perfekt. Es empfiehlt sich daher die Verwendung einer Governance-Richtlinie für den Umgang mit vertraulichen Informationen, die nach der Bereinigung von Daten verbleiben.

Vertrauliche Daten in einer Kombination von Feldern

Vertrauliche Daten können in einer Kombination von Feldern vorhanden sein oder sich im Lauf der Zeit anhand eines Trends in einem geschützten Feld manifestieren. Um beispielsweise die Wahrscheinlichkeit der Identifizierung eines Nutzers zu reduzieren, bietet es sich an, die letzten beiden Ziffern der Postleitzahl unkenntlich zu machen und die Postleitzahl dadurch von fünf auf drei Ziffern ("zip3") zu reduzieren. Eine Kombination aus zip3 der Arbeitsadresse und zip3 der Privatadresse kann jedoch zur Identifizierung von Nutzern mit ungewöhnlichen Kombinationen von Privat- und Arbeitsadressen ausreichen. In ähnlicher Weise kann ein Trend bei der zip3-Privatadresse im Lauf der Zeit zur Identifizierung einer Person führen, die mehrmals umgezogen ist.

Um zu erkennen, ob ein Dataset tatsächlich vor Angriffen durch Häufigkeitsanalysen geschützt ist, sind statistische Kenntnisse erforderlich. Jedes von Spezialisten abhängige Szenario birgt Herausforderungen hinsichtlich der Skalierbarkeit. Dies kann paradoxerweise dazu führen, dass derselbe Data Engineer, der die Daten bereinigt, die Rohdaten auf potenzielle Probleme untersuchen muss. Optimal wäre die Erstellung automatisierter Möglichkeiten zur Identifizierung und Quantifizierung dieses Risikos – eine Aufgabe, die über den Rahmen dieses Artikels hinausgeht.

Sie sollten Ihre Sicherheitsrisiken in diesen Szenarien jedoch in jedem Fall gemeinsam mit Ihrem Rechtsbeistand und Ihren Data Engineers bewerten.

Vertrauliche Daten in unstrukturierten Inhalten

Vertrauliche Daten sind mitunter aufgrund von eingebetteten Kontextinformationen in unstrukturierten Inhalten vorhanden. Ein Chat-Transkript kann beispielsweise folgenden Satz enthalten: "Ich habe gestern von meinem Büro aus angerufen. Ich musste aufgrund des schlechten Mobilempfangs im vierten Stock in die Lobby im 18. Stock beim Cafe Deluxe Espresso gehen."

Sie können je nach Kontext und Umfang Ihrer Trainingsdaten sowie den Empfehlungen Ihres Rechtsbeistands Aspekte dieses Inhalts filtern. Aufgrund der Unstrukturiertheit und des enormen Umfangs an komplexen Kombinationen von Wortgruppen, die ähnliche Inferenzen ermöglichen könnten, lässt sich dieses Szenario nur schwer mit programmatischen Tools handhaben. Es lohnt sich jedoch, eine strengere Governance für den Zugriff auf das gesamte unstrukturierte Dataset in Betracht zu ziehen.

Für die Modellentwicklung ist es oft effektiv, eine Teilprobe dieser Daten zur Verfügung zu stellen, nachdem diese von einer vertrauenswürdigen Person bereinigt und überprüft wurden. Sie können das vollständige Dataset anschließend unter Anwendung von Sicherheitseinschränkungen und Softwareautomatisierung im Rahmen des Produktionsmodelltrainings verarbeiten.

Vertrauliche Daten schützen

Nachdem Sie Ihre vertraulichen Daten identifiziert haben, müssen Sie festlegen, wie Sie diese schützen.

Vertrauliche Daten entfernen

Wenn für Ihr Projekt keine nutzerspezifischen Informationen erforderlich sind, sollten Sie in Betracht ziehen, alle diese Informationen aus dem Dataset zu löschen, bevor dieses den Data Engineers zum Erstellen Ihres ML-Modells zur Verfügung gestellt wird. Wie jedoch bereits erwähnt gibt es Fälle, in denen das Entfernen vertraulicher Daten den Wert des Datasets drastisch reduziert. Vertrauliche Daten sollten dann mit einer oder mehreren der im Abschnitt "Sensible Daten maskieren" erläuterten Techniken maskiert werden.

Je nach Struktur des Datasets sind zum Entfernen vertraulicher Daten unterschiedliche Ansätze erforderlich:

  • Wenn Daten auf bestimmte Spalten in strukturierten Datasets beschränkt sind, können Sie eine Ansicht erstellen, die keinen Zugriff auf die fraglichen Spalten bietet. Ihre Data Engineers können die Daten nicht anzeigen. Die Daten sind jedoch gleichzeitig "live" und erfordern keinen menschlichen Eingriff, um sie für ein kontinuierliches Training aufzubereiten.
  • Wenn vertrauliche Daten in unstrukturierten Inhalten vorkommen, aber mithilfe bekannter Muster identifizierbar sind, können sie automatisch entfernt und durch einen generischen String ersetzt werden. So wird diese Herausforderung mit Cloud DLP gelöst.
  • Wenn vertrauliche Daten in Bildern, Videos, Audio oder unstrukturierten Freitextdaten enthalten sind, können Sie die von Ihnen bereitgestellten Tools erweitern, um die vertraulichen Daten zu maskieren oder zu entfernen.
  • Wenn vertrauliche Daten aufgrund einer Kombination von Feldern vorhanden sind und Sie zur Quantifizierung des Risikos durch jede Spalte automatisierte Tools oder manuelle Datenanalyseschritte eingebunden haben, können Ihre Data Engineers fundiert entscheiden, ob eine relevante Spalte beibehalten oder entfernt werden soll.

Vertrauliche Daten maskieren

Wenn sich Felder mit vertraulichen Daten nicht entfernen lassen, können Ihre Data Engineers die Daten möglicherweise dennoch in einem maskierten Format nutzen, um effektive Modelle zu trainieren. Wenn die Data Engineers feststellen, dass sich ein Teil der oder alle Felder mit vertraulichen Daten maskieren lassen, ohne das ML-Training zu beeinträchtigen, stehen Ihnen zum Maskieren der Daten mehrere Techniken zur Auswahl.

  • Am gängigsten ist die Verwendung einer monoalphabetischen Substitution. Dabei werden alle Vorkommen einer reinen Textkennzeichnung durch deren Hash-Wert und/oder verschlüsselten Wert ersetzt. Es gilt generell als Best Practice, einen starken kryptografischen Hash wie SHA-256 oder einen starken Verschlüsselungsalgorithmus wie AES-256 zu verwenden, um alle Felder mit vertraulichen Daten zu speichern. Wichtig zu bedenken ist, dass durch die Verwendung eines Salts für die Verschlüsselung keine wiederholbaren Werte generiert werden, was dem ML-Training abträglich ist.

  • Die Vergabe von Tokens ist eine Maskierungstechnik, bei der die tatsächlich in jedem Feld mit vertraulichen Daten gespeicherten Werte durch völlig andere Dummy-Werte ersetzt werden. Die Zuordnung von Dummy-Werten zu tatsächlichen Werten wird in einer komplett anderen und wahrscheinlich sichereren Datenbank verschlüsselt bzw. mit Hash-Werten versehen. Zu beachten ist, dass diese Methode nur für ML-Datasets funktioniert, wenn derselbe Tokenwert für identische Werte wiederverwendet wird. Dies ähnelt einer monoalphabetischen Substitution, die für Angriffe durch Häufigkeitsanalysen anfällig ist. Der Hauptunterschied besteht darin, dass die Tokenisierung eine zusätzliche Schutzebene erzeugt, indem die verschlüsselten Werte in eine separate Datenbank verschoben werden.

  • Eine andere Methode zum Schutz von Daten mit mehreren Spalten verwendet die Hauptkomponentenanalyse (Principal Components Analysis, PCA) oder andere dimensionsreduzierende Techniken, um mehrere Merkmale zu kombinieren und das ML-Training anschließend nur für die resultierenden PCA-Vektoren durchzuführen. Beispiel: Es sind drei verschiedene Felder für Alter, Raucher (dargestellt als 1 oder 0) und Gewicht vorhanden. Diese Daten können in einer PCA-Spalte mit der folgenden Gleichung zusammengefasst werden: 1,5Alter+30Raucher+0,2*Gewicht. Bei einer Person, die 20 Jahre alt ist, raucht und 70 Kilogramm wiegt, ergibt dies einen Wert von 88. Derselbe Wert wird von einer Person generiert, die 30 Jahre alt ist, nicht raucht und 107,5 Kilogramm wiegt.

    Diese Methode kann ziemlich robust sein, da sich selbst bei der Identifizierung von Personen, die auf irgendeine Weise einmalig sind, ohne eine Erklärung der PCA-Vektorformel nur schwer ermitteln lässt, was sie einmalig macht. Jegliche PCA-Verarbeitung reduziert jedoch die Datenverteilung und die Sicherheit erhöht sich zulasten der Genauigkeit.

Wie bereits erwähnt ist die Entschlüsselung der monoalphabetischen Substitution mitunter durch A-priori-Wissen hinsichtlich der Häufigkeit, mit der verschiedene Kennzeichnungen generell auftreten, sowie durch Inferenzen aus dem tatsächlichen Vorkommen der verschiedenen verschlüsselten Kennzeichnungen möglich. So lässt sich beispielsweise anhand der Verteilung von Vornamen in einem öffentlichen Dataset mit Babynamen der wahrscheinliche Satz von Namen für eine bestimmte verschlüsselte Kennzeichnung ableiten. Angesichts der Tatsache, dass bösartige Akteure möglicherweise Zugriff auf das vollständige Dataset haben, sind Verschlüsselung, Hashing und die Vergabe von Tokens für Angriffe durch Häufigkeitsanalysen anfällig. Zur Verallgemeinerung und Quantisierung wird in der Substitution eine n:1-Zuordnung verwendet. Die entsprechende Inferenz ist etwas schwächer, aber dennoch für Angriffe durch Häufigkeitsanalysen anfällig. Da ML-Datasets eine Reihe von entsprechenden Variablen enthalten, lassen sich für Angriffe durch Häufigkeitsanalysen gemeinsame Eintrittswahrscheinlichkeiten verwenden. Dies kann die Entschlüsselung erheblich vereinfachen.

Daher müssen alle Maskierungsmethoden mit einem effektiven Prüfungs- und Governance-Mechanismus kombiniert werden, um den Zugriff auf alle ML-Datasets mit potenziell vertraulichen Daten einzuschränken. Dazu gehören auch Datasets, in denen alle Felder mit vertraulichen Daten unterdrückt, verschlüsselt, quantisiert oder verallgemeinert wurden.

Vertrauliche Daten vergröbern

Die Vergröberung ist eine weitere Technik, mit der sich die Genauigkeit oder Granularität von Daten verringern lässt, um das Identifizieren vertraulicher Daten im Dataset zu erschweren. Gleichzeitig erhalten Sie vergleichbare Vorteile gegenüber dem Training des Modells mit den vorab vergröberten Daten. Die folgenden Felder eignen sich besonders gut für diesen Ansatz:

  • Standorte: Die Bevölkerungsdichte variiert weltweit. Es gibt keine Faustregel dafür, wie weit Standortkoordinaten abgerundet werden sollten. Beispielsweise kann es für die Lokalisierung der Bewohner großer landwirtschaftlicher Betriebe in ländlichen Regionen ausreichen, dezimale Breiten- und Längengrade auf eine Dezimalstelle zu runden (z. B. -90,3, etwa innerhalb von 10 km). Wenn die Rundung für Koordinaten nicht ausreicht, können Sie Standortkennungen wie die Stadt, das Bundesland oder die Postleitzahl verwenden. Diese decken erheblich größere Bereiche ab und erschweren somit die Identifizierung einzelner Personen. Wählen Sie einen ausreichend großen Bucket, um die einzigartigen Eigenschaften einer Zeile angemessen zu verschleiern.
  • Postleitzahlen: Mit fünfstelligen Postleitzahlen lassen sich Haushalte mitunter identifizieren. Abhilfe schafft eine Vergröberung, bei der nur die ersten drei Ziffern ("zip3") angegeben werden. Dadurch wird eine hohe Anzahl von Nutzern in denselben Bucket gestellt, sodass sich einzelne Personen nur begrenzt identifizieren lassen. Auch hier sollten Sie das Risiko gegebenenfalls quantifizieren, da extrem große Datasets zunehmend komplexe Angriffe ermöglichen.
  • Numerische Mengen: Sie können die Identifizierung einzelner Personen erschweren, indem Sie Zahlen gruppieren. Oft ist beispielsweise nicht der genaue Geburtstag, sondern nur das Jahrzehnt oder der Monat erforderlich, in dem eine Person geboren ist. Daher können Felder für das Alter, den Geburtstag und ähnliche numerische Werte durch Substitutionsbereiche vergröbert werden.
  • IP-Adressen: IP-Adressen sind oft Teil eines maschinellen Lern-Workflows, der Anwendungslogs umfasst. Hinsichtlich ihrer Vertraulichkeit werden sie häufig wie physische Adressen behandelt. Eine gute Methode zur Vergröberung besteht darin, das letzte Oktett von IPv4-Adressen (bei Verwendung von IPv6 die letzten 80 Bit) durch Nullen zu ersetzen. Dies hat die gleiche Funktion wie das Runden des Breiten- und Längengrads oder die Reduzierung der Postanschrift auf die Postleitzahl. Der Schutz wird dadurch zulasten der geografischen Genauigkeit erhöht. Vergröbern Sie die IP-Adresse möglichst früh in der Pipeline. Gegebenenfalls können Sie Ihre Logging-Software sogar dahingehend konfigurieren, dass IP-Adressen vor dem Schreiben auf das Laufwerk maskiert oder unterdrückt werden.

Governance-Richtlinie erstellen

Wenn Ihre Datasets vertrauliche Daten enthalten, sollten Sie in Zusammenarbeit mit Ihrem Rechtsbeistand eine Governance-Richtlinien- und Best Practices-Dokumentation erstellen. Die Details Ihrer Richtlinie bleiben Ihnen überlassen. Als Referenz stehen zahlreiche Ressourcen zur Verfügung, wie etwa die Best Practices for Maintaining PCI DSS Compliance (Best Practices für PCI DSS-Compliance) des PCI Security Standards Council sowie die sicherheitstechnischen Anforderungen gemäß ISO/IEC 27001:2013. Die folgende Liste enthält auch eine Reihe allgemeiner Konzepte, die Sie bei der Einrichtung Ihres Richtlinienrahmens berücksichtigen können:

  • Verwenden Sie einen sicheren Speicherort für die Governance-Dokumentation.
  • Schließen Sie Verschlüsselungsschlüssel, Hash-Funktionen und andere Tools aus der Dokumentation aus.
  • Dokumentieren Sie alle bekannten Quellen eingehender vertraulicher Daten.
  • Dokumentieren Sie alle bekannten Speicherorte mit vertraulichen Daten zusammen mit dem Typ der vorhandenen Daten. Geben Sie die verwendeten Schutzmaßnahmen an.
  • Dokumentieren Sie bekannte Speicherorte mit vertraulichen Daten, bei denen Abhilfemaßnahmen schwierig, inkonsistent oder unmöglich sind. Dies umfasst Situationen, in denen die Gefahr eines Angriffs durch Häufigkeitsanalysen besteht.
  • Richten Sie ein Verfahren ein, um kontinuierlich neue Quellen mit vertraulichen Daten zu suchen und zu identifizieren.
  • Dokumentieren Sie die Rollen und nach Möglichkeit die Namen einzelner Mitarbeiter, denen vorübergehend oder dauerhaft Zugriff auf vertrauliche Daten gewährt wurde. Geben Sie die Gründe für die Zugriffsberechtigungen an.
  • Dokumentieren Sie die Verfahren, mit denen Mitarbeiter Zugriff auf vertrauliche Daten anfordern. Geben Sie an, wo sie auf vertrauliche Daten zugreifen können, ob, wie und wo sie diese kopieren können und welche weiteren Einschränkungen mit dem Zugriff verbunden sind.
  • Richten Sie ein Verfahren ein, um regelmäßig zu überprüfen, wer Zugriff auf welche vertraulichen Daten hat, und zu bestimmen, wie lange der Zugriff erforderlich ist. Geben Sie an, welche Maßnahmen zu ergreifen sind, wenn Mitarbeiter im Rahmen eines Offboardings aus dem Unternehmen ausscheiden oder die Rolle wechseln.
  • Richten Sie ein Verfahren ein, um die Richtlinien zu kommunizieren, durchzusetzen und regelmäßig zu überprüfen.

Weitere Informationen