KI sicher und verantwortungsvoll einsetzen

Last reviewed 2025-02-05 UTC

Dieses Prinzip in der Sicherheitssäule des Google Cloud Well-Architected Framework enthält Empfehlungen zur Sicherung Ihrer KI-Systeme. Diese Empfehlungen stimmen mit dem Secure AI Framework (SAIF) von Google überein, das einen praktischen Ansatz zur Bewältigung der Sicherheits- und Risikoaspekte von KI-Systemen bietet. Das SAIF ist ein konzeptionelles Framework, das branchenweite Standards für die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen bieten soll.

Grundsatzübersicht

Damit Ihre KI-Systeme Ihre Sicherheits-, Datenschutz- und Compliance-Anforderungen erfüllen, müssen Sie eine ganzheitliche Strategie verfolgen, die vom ersten Design bis zur Bereitstellung und zum Betrieb reicht. Sie können diese ganzheitliche Strategie umsetzen, indem Sie die sechs zentralen Elemente des SAIF anwenden.

Google nutzt KI, um Sicherheitsmaßnahmen zu verbessern, z. B. Bedrohungen zu erkennen, Sicherheitsaufgaben zu automatisieren und Erkennungsfunktionen zu verbessern. Bei wichtigen Entscheidungen bleiben jedoch immer Menschen involviert.

Google setzt auf einen kooperativen Ansatz, um die KI-Sicherheit voranzutreiben. Dabei arbeiten wir mit Kunden, Branchen und Behörden zusammen, um die SAIF-Richtlinien zu verbessern und praktische, umsetzbare Ressourcen anzubieten.

Die Empfehlungen zur Implementierung dieses Prinzips sind in den folgenden Abschnitten gruppiert:

Empfehlungen für die sichere Nutzung von KI

Für die sichere Nutzung von KI sind sowohl grundlegende Sicherheitskontrollen als auch KI-spezifische Sicherheitskontrollen erforderlich. In diesem Abschnitt finden Sie Empfehlungen, mit denen Sie dafür sorgen können, dass Ihre KI- und ML-Implementierungen die Sicherheits-, Datenschutz- und Compliance-Anforderungen Ihrer Organisation erfüllen. Eine Übersicht über architektonische Prinzipien und Empfehlungen, die speziell für KI- und ML-Arbeitslasten in Google Cloudgelten, finden Sie im Well-Architected Framework unter KI und ML.

Klare Ziele und Anforderungen für die Nutzung von KI definieren

Diese Empfehlung ist für die folgenden Fokusbereiche relevant:

  • Cloud-Governance, -Risiken und -Compliance
  • Sicherheit bei KI und ML

Diese Empfehlung entspricht dem SAIF-Element zur Kontextualisierung von KI-Systemrisiken in den zugehörigen Geschäftsprozessen. Wenn Sie KI-Systeme entwerfen und weiterentwickeln, ist es wichtig, Ihre spezifischen Geschäftsziele, Risiken und Compliance-Anforderungen zu kennen.

Daten schützen und Verlust oder Missbrauch verhindern

Diese Empfehlung ist für die folgenden Fokusbereiche relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • Sicherheit bei KI und ML

Diese Empfehlung entspricht den folgenden SAIF-Elementen:

  • Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten Dieses Element umfasst die Datenerhebung, -speicherung, Zugriffssteuerung und den Schutz vor Datenmanipulation.
  • Kontextualisierung von KI‑Sicherheitsrisiken Betonen Sie die Datensicherheit, um Geschäftsziele und Compliance zu unterstützen.

KI-Pipelines sicher und manipulationssicher machen

Diese Empfehlung ist für die folgenden Fokusbereiche relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • Sicherheit bei KI und ML

Diese Empfehlung entspricht den folgenden SAIF-Elementen:

  • Bewährte Sicherheitsgrundlagen auf das KI-Ökosystem ausweiten Ein wichtiger Schritt zum Aufbau eines sicheren KI-Systems ist der Schutz von Code- und Modellartefakten.
  • Anpassung der Einstellungen für schnellere Feedbackschleifen Es ist wichtig, Ihre Assets und Pipelineausführungen im Blick zu behalten, um Maßnahmen zur Risikobewältigung und Reaktion auf Vorfälle zu ergreifen.

Apps mit sicheren Tools und Artefakten auf sicheren Systemen bereitstellen

Diese Empfehlung ist für die folgenden Fokusbereiche relevant:

  • Sichere Infrastruktur
  • Identitäts- und Zugriffsverwaltung
  • Datensicherheit
  • Anwendungssicherheit
  • Sicherheit bei KI und ML

Die Verwendung sicherer Systeme und validierter Tools und Artefakte in KI-basierten Anwendungen entspricht dem SAIF-Element zur Ausweitung starker Sicherheitsgrundlagen auf das KI-Ökosystem und die Lieferkette. So können Sie diese Empfehlung umsetzen:

Eingaben schützen und überwachen

Diese Empfehlung ist für die folgenden Fokusbereiche relevant:

  • Logging, Auditing und Monitoring
  • Sicherheitsabläufe
  • Sicherheit bei KI und ML

Diese Empfehlung entspricht dem SAIF-Element zur Ausweitung der Erkennung und Reaktion, um KI in das Bedrohungsumfeld eines Unternehmens einzubinden. Um Probleme zu vermeiden, ist es wichtig, Prompts für generative KI-Systeme zu verwalten, Eingaben zu überwachen und den Nutzerzugriff zu steuern.

Empfehlungen für die KI-Governance

Alle Empfehlungen in diesem Abschnitt sind für den folgenden Fokusbereich relevant: Cloud-Governance, Risiko und Compliance.

Google Cloud bietet eine Reihe robuster Tools und Dienste, mit denen Sie verantwortungsbewusste und ethische KI-Systeme entwickeln können. Außerdem bieten wir ein Rahmenwerk mit Richtlinien, Verfahren und ethischen Überlegungen, die bei der Entwicklung, Bereitstellung und Verwendung von KI-Systemen als Orientierung dienen können.

Wie in unseren Empfehlungen zum Ausdruck kommt, orientiert sich der Ansatz von Google für die KI-Governance an den folgenden Grundsätzen:

  • Fairness
  • Transparenz
  • Rechenschaftspflicht
  • Datenschutz
  • Sicherheit

Fairness-Indikatoren verwenden

Mit Vertex AI können Sie Verzerrungen während der Datenerhebung oder der Bewertung nach dem Training erkennen. Vertex AI bietet Messwerte für die Modellbewertung wie Datenverzerrung und Modellverzerrung, mit denen Sie Ihr Modell auf Verzerrungen prüfen können.

Diese Messwerte beziehen sich auf Fairness in verschiedenen Kategorien wie Rasse, Geschlecht und sozialer Schicht. Die Interpretation statistischer Abweichungen ist jedoch nicht ganz einfach, da Unterschiede zwischen Kategorien nicht unbedingt auf Voreingenommenheit oder auf einen Schaden zurückzuführen sind.

Vertex Explainable AI verwenden

Mit Vertex Explainable AI können Sie nachvollziehen, wie die KI-Modelle Entscheidungen treffen. Mit dieser Funktion können Sie potenzielle Verzerrungen erkennen, die in der Logik des Modells verborgen sein könnten.

Diese Erklärbarkeitsfunktion ist in BigQuery ML und Vertex AI integriert, die datenbasierte Erklärungen liefern. Sie können die Erklärbarkeit entweder in BigQuery ML oder in Vertex AI registrieren und dann in Vertex AI analysieren.

Datenherkunft verfolgen

Ursprung und Transformation von Daten in Ihren KI-Systemen verfolgen So können Sie den Weg der Daten nachvollziehen und potenzielle Quellen von Verzerrungen oder Fehlern identifizieren.

Die Datenherkunft ist eine Dataplex-Funktion, mit der Sie verfolgen können, wie sich Daten durch Ihre Systeme bewegen – woher sie kommen, wohin sie übergeben werden und welche Transformationen auf sie angewendet werden.

Verantwortlichkeit schaffen

Legen Sie eine klare Verantwortung für die Entwicklung, Implementierung und Ergebnisse Ihrer KI-Systeme fest.

Verwenden Sie Cloud Logging, um wichtige Ereignisse und Entscheidungen Ihrer KI-Systeme zu protokollieren. Die Protokolle dienen als Prüfpfad, mit dem Sie die Leistung des Systems nachvollziehen und Verbesserungsmöglichkeiten erkennen können.

Mit Error Reporting können Sie Fehler, die von den KI-Systemen gemacht werden, systematisch analysieren. Diese Analyse kann Muster aufzeigen, die auf zugrunde liegende Voreingenommenheiten oder Bereiche hinweisen, in denen das Modell weiter optimiert werden muss.

Differential Privacy implementieren

Fügen Sie während des Modelltrainings Rauschen zu den Daten hinzu, um die Identifizierung einzelner Datenpunkte zu erschweren, aber das Modell trotzdem effektiv lernen zu lassen. Mit SQL in BigQuery können Sie die Ergebnisse einer Abfrage mit differenziell privaten Aggregationen transformieren.