Confidential Computing für Datenanalyse und KI

Last reviewed 2024-12-20 UTC

In diesem Dokument finden Sie einen allgemeinen Überblick über vertrauliches Computing, einschließlich der Möglichkeiten zur sicheren Datenzusammenarbeit und zum föderierten Lernen. Das Dokument enthält außerdem Informationen zu den Confidential Computing-Diensten inGoogle Cloud sowie Architekturreferenzen für verschiedene Anwendungsfälle.

Dieses Dokument soll Technologie-Führungskräften helfen, das Geschäftspotenzial von vertraulichem Computing mit generativer KI und angewandter KI in verschiedenen Branchen wie Finanzdienstleistungen und Gesundheitswesen zu verstehen.

Confidential Computing – Übersicht

Bisher lag der Schwerpunkt der Datensicherheit auf dem Schutz von ruhenden und übertragenen Daten durch Verschlüsselung. Confidential Computing bietet eine zusätzliche Schutzebene, da die Verwundbarkeit von Daten während der aktiven Nutzung angegangen wird. Diese Technologie sorgt dafür, dass vertrauliche Daten auch während der Verarbeitung vertraulich bleiben, und trägt so dazu bei, eine kritische Lücke in der Datensicherheit zu schließen.

In einer Confidential Computing-Umgebung werden aktive Daten mit einer hardwarebasierten Vertrauenswürdigen Ausführungsumgebung (Trusted Execution Environment, TEE) geschützt. Ein TEE ist ein sicherer Bereich innerhalb eines Prozessors, der die Vertraulichkeit und Integrität des darin geladenen Codes und der Daten schützt. TEE dient als Safe Room für sensible Vorgänge, wodurch das Risiko für Daten auch bei Manipulation des Systems verringert wird. Mit Confidential Computing können Daten während der Verarbeitung im Arbeitsspeicher verschlüsselt bleiben.

Sie können vertrauliches Computing beispielsweise für die Datenanalyse und das maschinelle Lernen verwenden, um Folgendes zu erreichen:

  • Erhöhter Datenschutz:Sie können Analysen an sensiblen Datensätzen (z. B. Patientenakten oder Finanzdaten) durchführen, ohne dass die Daten der zugrunde liegenden Infrastruktur oder den an der Berechnung beteiligten Parteien ausgesetzt werden.
  • Sichere Zusammenarbeit: Gemeinsame Modellierung mithilfe von maschinellem Lernen oder Analysen der kombinierten Datensätze mehrerer Parteien, ohne dass einzelne Daten offengelegt werden. Confidential Computing fördert das Vertrauen und ermöglicht die Entwicklung robusterer und generalisierbarerer Modelle, insbesondere in Branchen wie dem Gesundheitswesen und der Finanzwirtschaft.
  • Verbesserte Datensicherheit: Das Risiko von Datenpannen und unbefugtem Zugriff wird minimiert und die Einhaltung von Datenschutzbestimmungen wie der EU-Datenschutz-Grundverordnung (DSGVO) oder dem US-Gesetz zur Übertragbarkeit von Krankenversicherungen und Verantwortlichkeit von Versicherern (Health Insurance Portability and Accountability Act, HIPAA) wird sichergestellt.
  • Mehr Vertrauen und Transparenz: Sie können nachweisen, dass die Berechnungen mit den vorgesehenen Daten und in einer sicheren Umgebung durchgeführt werden, was das Vertrauen der Stakeholder stärkt.

Funktionsweise einer Confidential Computing-Umgebung

Umgebungen für vertrauliches Computing haben folgende Eigenschaften:

  • Laufzeitverschlüsselung: Der Prozessor hält alle Daten der vertraulichen Computing-Umgebung verschlüsselt im Arbeitsspeicher. Systemkomponenten oder Hardware-Angreifer, die versuchen, vertrauliche Daten aus der Rechenumgebung direkt aus dem Arbeitsspeicher zu lesen, sehen nur verschlüsselte Daten. Ebenso verhindert die Verschlüsselung die Änderung von Daten in einer Umgebung für vertrauliches Computing durch direkten Zugriff auf den Arbeitsspeicher.
  • Isolation: Der Prozessor blockiert den softwarebasierten Zugriff auf die vertrauliche Computing-Umgebung. Das Betriebssystem und andere Anwendungen können nur über bestimmte Schnittstellen mit der Umgebung für vertrauliche Berechnungen kommunizieren.
  • Attestierung: Im Kontext von Confidential Computing wird durch die Attestierung die Vertrauenswürdigkeit der Confidential Computing-Umgebung überprüft. Mithilfe der Attestierung können Nutzer sehen, dass ihre Daten durch Confidential Computing geschützt werden, da Sie mit der Attestierung die TEE-Instanz authentifizieren können.

    Während des Attestierungsprozesses generiert der CPU-Chip, der die TEE unterstützt, einen kryptografisch signierten Bericht (Attestierungsbericht) zur Messung der Instanz. Die Messung wird dann an einen Attestierungsdienst gesendet. Eine Attestierung für die Prozessisolierung authentifiziert eine Anwendung. Bei einer Attestierung für die VM-Isolation werden eine VM, die virtuelle Firmware, die zum Starten der VM verwendet wird, oder beides authentifiziert.

  • Sicherheit während des Datenlebenszyklus: Confidential Computing schafft eine sichere Verarbeitungsumgebung, um aktive Daten durch Hardware zu schützen.

Confidential Computing-Technologie

Die folgenden Technologien ermöglichen Confidential Computing:

  • Sichere Enklaven, auch anwendungsbasiertes Confidential Computing genannt
  • Confidential VMs und GPUs, auch als VM-basiertes Confidential Computing bezeichnet

Google Cloud verwenden Confidential VMs, um Confidential Computing zu ermöglichen. Weitere Informationen finden Sie unter Vertrauliches Computing inGoogle Cloud implementieren.

Secure Enclaves

Eine sichere Enclave ist eine Computing-Umgebung, die Code und Daten mithilfe von hardwarebasierter Isolation vom Betriebssystem isoliert oder eine gesamte VM isoliert, indem der Hypervisor in die Trusted Computing Base (TCB) eingefügt wird. Sichere Enclaves sollen dafür sorgen, dass selbst Nutzer mit physischem oder Root-Zugriff auf die Maschinen und das Betriebssystem nicht auf den Inhalt des sicheren Enclave-Speichers zugreifen oder die Ausführung von Code innerhalb der Enclave manipulieren können. Ein Beispiel für eine Secure Enclave ist Intel Software Guard Extension (SGX).

Confidential VMs und vertrauliche GPUs

Eine Confidential VM ist eine Art von VM, die Daten und Anwendungen mithilfe einer hardwarebasierten Arbeitsspeicherverschlüsselung schützt. Confidential VM bietet Isolation und Attestierung, um die Sicherheit zu verbessern. Zu den Computing-Technologien für Confidential VMs gehören AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE und Nvidia Confidential GPU.

Vertrauliche GPUs tragen zum Schutz von Daten und zur Beschleunigung der Datenverarbeitung bei, insbesondere in Cloud- und freigegebenen Umgebungen. Sie verwenden hardwarebasierte Verschlüsselungs- und Isolationstechniken, um Daten während der Verarbeitung auf der GPU zu schützen. So wird sichergestellt, dass nicht einmal der Cloud-Anbieter oder böswillige Akteure auf vertrauliche Informationen zugreifen können.

Anwendungsfälle nach Branche

In den folgenden Abschnitten finden Sie Beispiele für Anwendungsfälle für vertrauliches Computing in verschiedenen Branchen.

Gesundheitswesen und Biowissenschaften

Vertrauliches Computing ermöglicht die sichere Freigabe und Analyse von Daten über Organisationen hinweg, wobei der Datenschutz für Patienten gewahrt bleibt. Mit vertraulichem Computing können Gesundheitsorganisationen an kollaborativer Forschung, Krankheitsmodellierung, Arzneimittelforschung und personalisierten Behandlungsplänen teilnehmen.

In der folgenden Tabelle werden einige Anwendungsfälle für vertrauliches Computing im Gesundheitswesen beschrieben.

Anwendungsfall Beschreibung

Krankheitsvorhersage und Früherkennung

Krankenhäuser trainieren ein föderiertes Lernmodell, um Krebsläsionen anhand von medizinischen Bilddaten (z. B. MRT- oder CT-Scans aus mehreren Krankenhäusern oder Krankenhausregionen) zu erkennen und dabei die Vertraulichkeit der Patientendaten zu wahren.

Echtzeitüberwachung von Patienten

Gesundheitsdienstleister analysieren Daten von tragbaren Gesundheitsgeräten und mobilen Gesundheits-Apps für die Echtzeitüberwachung und Benachrichtigungen. So erfassen beispielsweise Wearables Daten zu Blutzuckerspiegel, körperlicher Aktivität und Ernährungsgewohnheiten, um personalisierte Empfehlungen und frühzeitige Warnungen bei Blutzuckerschwankungen zu geben.

Kollaborative Arzneimittelforschung

Pharmaunternehmen trainieren Modelle mit proprietären Datasets, um die Arzneimittelforschung zu beschleunigen, die Zusammenarbeit zu verbessern und gleichzeitig geistiges Eigentum zu schützen.

Finanzdienstleister

Mit Confidential Computing können Finanzinstitute ein sichereres und widerstandsfähigeres Finanzsystem schaffen.

In der folgenden Tabelle sind einige Anwendungsbeispiele für vertrauliches Computing in Finanzdienstleistungen aufgeführt.

Anwendungsfall Beschreibung

Finanzkriminalität

Finanzinstitute können bei der Bekämpfung von Geldwäsche (Anti-Money Laundering, AML) oder bei allgemeinen Betrugsmodellen zusammenarbeiten, indem sie Informationen über verdächtige Transaktionen austauschen und gleichzeitig den Datenschutz der Kunden schützen. Mithilfe von vertraulichem Computing können Institutionen diese freigegebenen Daten auf sichere Weise analysieren und die Modelle so trainieren, dass komplexe Geldwäschesysteme effektiver erkannt und unterbunden werden.

Datenschutzfreundliche Kreditrisikobewertung

Kreditgeber können das Kreditrisiko anhand einer größeren Bandbreite von Datenquellen bewerten, einschließlich Daten von anderen Finanzinstituten oder sogar nichtfinanziellen Rechtssubjekten. Mit vertraulichen Berechnungen können Kreditgeber auf diese Daten zugreifen und sie analysieren, ohne sie unbefugten Dritten offenzulegen. So wird die Genauigkeit von Kreditscoring-Modellen verbessert und gleichzeitig der Datenschutz gewahrt.

Datenschutzfreundliche Preisermittlung

In der Finanzwelt, insbesondere in Bereichen wie OTC-Märkten oder illiquiden Vermögenswerten, sind korrekte Preise entscheidend. Mit vertraulichem Computing können mehrere Institutionen gemeinsam genaue Preise berechnen, ohne ihre sensiblen Daten preiszugeben.

Öffentlicher Sektor

Mit Confidential Computing können Behörden transparentere, effizientere und effektivere Dienste bereitstellen und gleichzeitig die Kontrolle und Souveränität über ihre Daten behalten.

In der folgenden Tabelle werden einige Anwendungsfälle für vertrauliches Computing im öffentlichen Sektor beschrieben.

Anwendungsfall Beschreibung

Digitale Souveränität

Mit Confidential Computing werden Daten immer verschlüsselt, auch während der Verarbeitung. Es ermöglicht sichere Cloud-Migrationen von Bürgerdaten, die auch dann geschützt sind, wenn sie in einer externen Infrastruktur gehostet werden, und zwar in Hybrid-, öffentlichen oder Multi-Cloud-Umgebungen. Confidential Computing unterstützt und fördert die digitale Souveränität und digitale Autonomie durch zusätzliche Datenkontrolle und Schutz für verwendete Daten, sodass der Cloud-Anbieter nicht auf Verschlüsselungsschlüssel zugreifen kann.

Vertrauliche Analysen für mehrere Behörden

Mit vertraulichem Computing können Daten von mehreren Parteien in mehreren Behörden (z. B. Gesundheits-, Steuer- und Bildungsbehörden) oder in mehreren Behörden in verschiedenen Regionen oder Ländern analysiert werden. Mit vertraulichem Computing können Vertrauensgrenzen und Datenschutz geschützt werden. Gleichzeitig werden Datenanalysen (mithilfe von DLP, groß angelegten Analysen und Richtlinien-Engines) sowie KI-Training und ‑Bereitstellung ermöglicht.

Trusted AI

Behördendaten sind wichtig und können auf sichere Weise zum Trainieren privater KI-Modelle verwendet werden, um interne Dienstleistungen sowie Interaktionen mit Bürgern zu verbessern. Vertrauliches Computing ermöglicht vertrauenswürdige KI-Frameworks mit vertraulichen Prompts oder vertraulichen RAG-Trainings (Retrieval Augmented Generation), um Daten und Modelle von Bürgern privat und sicher zu halten.

Lieferkette

Mit vertraulichem Computing können Unternehmen ihre Lieferkette verwalten, bei der Nachhaltigkeit zusammenarbeiten und Erkenntnisse austauschen, während der Datenschutz gewahrt bleibt.

In der folgenden Tabelle werden einige Anwendungsfälle für vertrauliches Computing in Lieferketten beschrieben.

Anwendungsfall Beschreibung

Bedarfsprognose und Inventaroptimierung

Bei vertraulichem Computing trainiert jedes Unternehmen sein eigenes Nachfrageprognosemodell anhand seiner eigenen Verkaufs- und Inventardaten. Diese Modelle werden dann sicher in einem globalen Modell zusammengefasst, das einen genaueren und ganzheitlicheren Überblick über die Nachfragemuster in der gesamten Lieferkette bietet.

Datenschutzfreundliche Risikobewertung von Lieferanten

Jede Organisation, die an der Risikobewertung von Lieferanten beteiligt ist (z. B. Käufer, Finanzinstitute und Prüfer), trainiert ihr eigenes Risikobewertungsmodell anhand ihrer eigenen Daten. Diese Modelle werden zusammengefasst, um ein umfassendes und datenschutzfreundliches Risikoprofil für Lieferanten zu erstellen. So können potenzielle Lieferantenrisiken frühzeitig erkannt, die Resilienz der Lieferkette verbessert und bessere Entscheidungen bei der Auswahl und Verwaltung von Lieferanten getroffen werden.

CO₂-Bilanz im Blick behalten und reduzieren

Vertrauliches Computing bietet eine Lösung für die Herausforderungen des Datenschutzes und der Transparenz beim CO₂-Fußabdruck-Tracking und bei Bemühungen zur CO₂-Reduktion. Mit vertraulichem Computing können Organisationen Daten teilen und analysieren, ohne ihre Rohform offenzulegen. So können sie fundierte Entscheidungen treffen und effektive Maßnahmen für eine nachhaltigere Zukunft ergreifen.

Digitale Werbung

In der digitalen Werbung werden Drittanbieter-Cookies zunehmend durch datenschutzfreundlichere Alternativen wie die Privacy Sandbox ersetzt. Die Privacy Sandbox unterstützt wichtige Anwendungsfälle für Werbung und schränkt gleichzeitig das website- und appübergreifende Tracking ein. Die Privacy Sandbox verwendet TEEs, um die sichere Verarbeitung von Nutzerdaten durch Werbeunternehmen zu gewährleisten.

Sie können TEEs in den folgenden Anwendungsfällen für digitale Werbung verwenden:

  • Abgleichsalgorithmen: Sie finden Übereinstimmungen oder Beziehungen innerhalb von Datensätzen.
  • Attribution: Verknüpfung von Effekten oder Ereignissen mit ihren wahrscheinlichen Ursachen.
  • Aggregation: Berechnen von Zusammenfassungen oder Statistiken aus den Rohdaten.

Vertrauliches Computing in Google Cloudimplementieren

Google Cloud umfasst die folgenden Dienste, die vertrauliches Computing ermöglichen:

  • Confidential VM:Aktivieren Sie die Verschlüsselung aktiver Daten für Arbeitslasten, die VMs verwenden.
  • Confidential GKE:Aktivieren Sie die Verschlüsselung aktiver Daten für Arbeitslasten, die Container verwenden.
  • Confidential Dataflow:Verschlüsselung von Daten für Streaminganalysen und maschinelles Lernen aktivieren
  • Confidential Dataproc:Aktive Daten für die Datenverarbeitung verschlüsseln
  • Confidential Space:Verschlüsselung aktiver Daten für die gemeinsame Datenanalyse und maschinelles Lernen aktivieren

Mit diesen Diensten können Sie Ihre Vertrauensgrenze verringern, sodass weniger Ressourcen Zugriff auf Ihre vertraulichen Daten haben. In einer Google Cloud-Umgebung ohne Confidential Computing umfasst die Vertrauensgrenze beispielsweise dieGoogle Cloud -Infrastruktur (Hardware, Hypervisor und Hostbetriebssystem) und das Gastbetriebssystem. In einer Google Cloud -Umgebung mit Confidential Computing (ohne Confidential Space) umfasst die Vertrauensgrenze nur das Gastbetriebssystem und die Anwendung. In einer Google Cloud-Umgebung mit Confidential Space ist die Vertrauensgrenze nur die Anwendung und der zugehörige Speicherplatz. In der folgenden Tabelle wird gezeigt, wie die Vertrauensgrenze mit Confidential Computing und Confidential Space reduziert wird.

Elemente Innerhalb der Vertrauensgrenze ohne Verwendung von Confidential Computing Innerhalb der Vertrauensgrenze bei der Verwendung von Confidential Computing Innerhalb der Vertrauensgrenze bei Verwendung von Confidential Space

Cloud-Stack und Administratoren

Ja

Nein

Nein

BIOS und Firmware

Ja

Nein

Nein

Hostbetriebssystem und Hypervisor

Ja

Nein

Nein

VM-Gastadministrator

Ja

Ja

Nein

VM-Gastbetriebssystem

Ja

Ja

Ja, gemessen und attestiert

Anwendungen

Ja

Ja

Ja, gemessen und attestiert

Vertrauliche Daten

Ja

Ja

Ja

Mit Confidential Space wird ein sicherer Bereich innerhalb einer VM erstellt, um für sensible Daten und Anwendungen eine maximale Isolation und Sicherheit zu bieten. Zu den wichtigsten Sicherheitsvorteilen von Confidential Space gehören:

  • Gestaffelte Sicherheitsebenen: Erhöht die Sicherheit durch eine zusätzliche Sicherheitsebene zu den vorhandenen Technologien für vertrauliches Computing.
  • Reduzierte Angriffsfläche: Isoliert Anwendungen von potenziellen Sicherheitslücken im Gastbetriebssystem.
  • Erweiterte Kontrolle:Bietet eine detaillierte Zugriffs- und Berechtigungssteuerung innerhalb der sicheren Umgebung.
  • Mehr Vertrauen:Bietet eine höhere Gewährleistung für Datenvertraulichkeit und ‑integrität.

Confidential Space wurde für die Verarbeitung hochsensibler Arbeitslasten entwickelt, insbesondere in regulierten Branchen oder Szenarien mit mehrseitigen Gruppenarbeiten, bei denen der Datenschutz an erster Stelle steht.

Architekturreferenzen

Sie können vertrauliches Computing in Google Cloud implementieren, um die folgenden Anwendungsfälle zu unterstützen:

  • Vertrauliche Analysen
  • Vertrauliche KI
  • Vertrauliches föderiertes Lernen

In den folgenden Abschnitten finden Sie weitere Informationen zur Architektur für diese Anwendungsfälle, einschließlich Beispielen für Unternehmen aus der Finanz- und Gesundheitsbranche.

Vertrauliche Analysearchitektur für Gesundheitseinrichtungen

Die vertrauliche Analysearchitektur zeigt, wie mehrere Gesundheitseinrichtungen (z. B. Anbieter, biopharmazeutische und Forschungseinrichtungen) zusammenarbeiten können, um die Arzneimittelforschung zu beschleunigen. Bei dieser Architektur werden Confidential Computing-Techniken verwendet, um einen digitalen Cleanroom für vertrauliche kollaborative Analysen zu erstellen.

Diese Architektur bietet folgende Vorteile:

  • Erweiterte Informationen: Durch kollaboratives Analysetool können Gesundheitsorganisationen umfassendere Informationen gewinnen und die Markteinführungszeit für die Arzneimittelforschung verkürzen.
  • Datenschutz: Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals für andere Teilnehmer oder die TEE freigegeben, was für Vertraulichkeit sorgt.
  • Compliance mit gesetzlichen Vorschriften:Die Architektur hilft Gesundheitseinrichtungen, die Datenschutzbestimmungen einzuhalten, indem sie ihre Daten streng kontrollieren.
  • Vertrauen und Zusammenarbeit: Die Architektur ermöglicht eine sichere Zusammenarbeit zwischen konkurrierenden Institutionen und fördert gemeinsame Bemühungen zur Entdeckung von Medikamenten.

Das folgende Diagramm zeigt diese Architektur.

Diagramm der Architektur für vertrauliche Analysen für Gesundheitseinrichtungen.

Zu den wichtigsten Komponenten dieser Architektur gehören:

  • TEE-OLAP-Aggregationsserver: Eine sichere, isolierte Umgebung, in der Modelle für maschinelles Lernen trainiert und inferenziert werden. Daten und Code innerhalb des TEE sind vor unbefugtem Zugriff geschützt, auch vor dem zugrunde liegenden Betriebssystem oder Cloud-Anbieter.
  • Zusammenarbeitspartner: Jede teilnehmende Gesundheitseinrichtung hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten der Einrichtung und der TEE dient.
  • Anbieterspezifische verschlüsselte Daten: Jede Gesundheitseinrichtung speichert ihre eigenen privaten, verschlüsselten Patientendaten, einschließlich elektronischer Patientenakten. Diese Daten bleiben während des Analyseprozesses verschlüsselt, was den Datenschutz gewährleistet. Die Daten werden erst nach der Validierung der Attestationsansprüche der einzelnen Anbieter an den TEE freigegeben.
  • Analytics-Client:Teilnehmende Gesundheitseinrichtungen können vertrauliche Abfragen auf ihre Daten ausführen, um sofortige Statistiken zu erhalten.

Vertrauliche KI-Architektur für Finanzinstitute

Dieses Architekturmuster zeigt, wie Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren und gleichzeitig Betrugslabels verwenden können, um die Vertraulichkeit ihrer sensiblen Transaktionsdaten zu wahren. Die Architektur nutzt Techniken für vertrauliches Computing, um sicheres maschinelles Lernen für mehrere Parteien zu ermöglichen.

Diese Architektur bietet folgende Vorteile:

  • Erweiterte Betrugserkennung:Bei der kollaborativen Schulung wird ein größerer, vielfältigerer Datensatz verwendet, was zu einem genaueren und effektiveren Modell zur Betrugserkennung führt.
  • Datenschutz: Sensible Transaktionsdaten bleiben verschlüsselt und werden niemals für andere Teilnehmer oder die TEE freigegeben, was für Vertraulichkeit sorgt.
  • Regulatory Compliance: Die Architektur hilft Finanzinstituten, die Datenschutzbestimmungen einzuhalten, indem sie ihre Daten streng kontrollieren.
  • Vertrauen und Zusammenarbeit: Diese Architektur ermöglicht die sichere Zusammenarbeit zwischen konkurrierenden Institutionen und fördert gemeinsame Bemühungen zur Bekämpfung von Finanzbetrug.

Das folgende Diagramm zeigt diese Architektur.

Diagramm der Architektur für vertrauliche Analysen für Finanzinstitute.

Zu den wichtigsten Komponenten dieser Architektur gehören:

  • TEE-OLAP-Aggregationsserver: Eine sichere, isolierte Umgebung, in der Modelle für maschinelles Lernen trainiert und inferenziert werden. Daten und Code innerhalb des TEE sind vor unbefugtem Zugriff geschützt, auch vor dem zugrunde liegenden Betriebssystem oder Cloud-Anbieter.
  • TEE-Modelltraining:Das globale Modell für Betrugsrisiken wird als Container verpackt, um das ML-Training auszuführen. Innerhalb des TEE wird das globale Modell mit den verschlüsselten Daten aller teilnehmenden Banken weiter trainiert. Beim Training werden Verfahren wie föderiertes Lernen oder sichere Multi-Party-Kognition eingesetzt, um sicherzustellen, dass keine Rohdaten offengelegt werden.
  • Mitarbeitende Partner:Jedes teilnehmende Finanzinstitut hat eine lokale Umgebung, die als Vermittler zwischen den privaten Daten des Instituts und der TEE dient.
  • Bankspezifische verschlüsselte Daten:Jede Bank hat eigene private, verschlüsselte Transaktionsdaten, die Betrugslabels enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, um den Datenschutz zu gewährleisten. Die Daten werden erst nach der Validierung der Attestationsansprüche der einzelnen Banken an den TEE freigegeben.
  • Modell-Repository: Ein vortrainiertes Modell zur Betrugserkennung, das als Ausgangspunkt für das kollaborative Training dient.
  • Globales Modell zur Betrugserkennung und Gewichte (durch die grüne Linie symbolisiert): Das verbesserte Modell zur Betrugserkennung wird zusammen mit den gelernten Gewichten sicher an die teilnehmenden Banken zurückgegeben. Dieses optimierte Modell kann dann lokal für die Betrugserkennung bei eigenen Transaktionen bereitgestellt werden.

Vertrauliche Architektur für föderiertes Lernen für Finanzinstitute

Federated Learning ist eine erweiterte Lösung für Kunden, die Wert auf strengen Datenschutz und Datensouveränität legen. Die vertrauliche föderierte Lernarchitektur bietet eine sichere, skalierbare und effiziente Möglichkeit, Daten für KI-Anwendungen zu verwenden. Bei dieser Architektur werden die Modelle an den Speicherort der Daten gebracht, anstatt die Daten an einem einzigen Ort zu zentralisieren. So werden die Risiken von Datenlecks reduziert.

Dieses Architekturmuster zeigt, wie mehrere Finanzinstitute gemeinsam ein Betrugserkennungsmodell trainieren und gleichzeitig die Vertraulichkeit ihrer sensiblen Transaktionsdaten mit Betrugslabels wahren können. Dabei werden föderiertes Lernen und vertrauliche Computing-Techniken verwendet, um sicheres, mehrseitiges maschinelles Lernen ohne Übertragung von Trainingsdaten zu ermöglichen.

Diese Architektur bietet folgende Vorteile:

  • Erhöhter Datenschutz und mehr Sicherheit: Föderiertes Lernen ermöglicht Datenschutz und Datenlokalität, da vertrauliche Daten an jedem Standort verbleiben. Darüber hinaus können Finanzinstitute datenschutzfreundliche Verfahren wie die homomorphe Verschlüsselung und Differential Privacy-Filter verwenden, um übertragene Daten (z. B. die Modellgewichte) weiter zu schützen.
  • Verbesserte Genauigkeit und Vielfalt: Durch das Training mit einer Vielzahl von Datenquellen verschiedener Kunden können Finanzinstitute ein robustes und generalisierbares globales Modell entwickeln, um heterogene Datensätze besser darzustellen.
  • Skalierung und Netzwerkeffizienz: Da die Modelle am Edge trainiert werden können, können Organisationen die föderierte Lerntechnologie weltweit skalieren. Außerdem müssen Institutionen nur die Modellgewichte und nicht ganze Datasets übertragen, was eine effiziente Nutzung der Netzwerkressourcen ermöglicht.

Das folgende Diagramm zeigt diese Architektur.

Diagramm der vertraulichen Architektur für föderiertes Lernen.

Zu den wichtigsten Komponenten dieser Architektur gehören:

  • Föderierter Server im TEE-Cluster: Eine sichere, isolierte Umgebung, in der der Server für föderiertes Lernen die Zusammenarbeit mehrerer Clients organisiert, indem er zuerst ein Anfangsmodell an die Clients für föderiertes Lernen sendet. Die Clients führen ein Training mit ihren lokalen Datasets durch und senden die Modellupdates dann zur Aggregation an den Federated Learning-Server zurück, um ein globales Modell zu bilden.
  • Repository für föderierte Lernmodelle:Ein vortrainiertes Betrugserkennungsmodell, das als Ausgangspunkt für das föderierte Lernen dient.
  • Inference Engine für lokale Anwendungen:Eine Anwendung, die Aufgaben ausführt, lokale Berechnungen und Lernen mit lokalen Datensätzen durchführt und die Ergebnisse zur sicheren Aggregation an den Server für föderiertes Lernen zurücksendet.
  • Lokale private Daten:Jede Bank hat eigene private, verschlüsselte Transaktionsdaten, die Betrugslabels enthalten. Diese Daten bleiben während des gesamten Prozesses verschlüsselt, um den Datenschutz zu gewährleisten.
  • Sicheres Aggregationsprotokoll (durch die gepunktete blaue Linie symbolisiert): Der Server für die föderierte Lerntechnologie muss nicht auf die Updates einer einzelnen Bank zugreifen, um das Modell zu trainieren. Er benötigt nur die elementweise gewichteten Durchschnittswerte der Updatevektoren, die aus einer zufälligen Teilmenge von Banken oder Standorten stammen. Wenn diese gewichteten Durchschnittswerte mit einem sicheren Aggregationsprotokoll berechnet werden, kann der Server nur erkennen, dass ein oder mehrere Banken in dieser zufällig ausgewählten Teilmenge ein bestimmtes Wort eingegeben haben, aber nicht, welche Banken. So wird die Privatsphäre aller Teilnehmer am föderierten Lernprozess geschützt.
  • Globales Modell zur Betrugserkennung und aggregierte Gewichte (durch die grüne Linie dargestellt): Das verbesserte Modell zur Betrugserkennung wird zusammen mit den gelernten Gewichten sicher an die teilnehmenden Banken zurückgesendet. Die Banken können dieses erweiterte Modell dann lokal für die Betrugserkennung bei ihren eigenen Transaktionen bereitstellen.

Nächste Schritte

Beitragende