Secure AI Framework (SAIF) und Google Cloud

GShield

Secure AI Framework (SAIF) und Google Cloud

Secure AI Framework (SAIF) und Google Cloud

Das Secure AI Framework (SAIF) bietet Organisationen Hilfestellung bei der Erstellung sicherer KI-Systeme.

Google hat SAIF.google erstellt, einschließlich einer SAIF-Risikobewertung , um die Implementierung des SAIF in Organisationen zu unterstützen und bei der Entwicklung und Bereitstellung von KI-Systemen zu helfen.

Im Folgenden werfen wir einen Blick auf das Sicherheitsportfolio von Google Cloud aus Sicht des SAIF und zeigen, wie wir Ihrer Organisation dabei helfen können, potenzielle KI-Risiken mit verschiedenen Cloud-Lösungen und ‐Einstellungen zu minimieren.

Funktionsweise

Sie möchten auf die in Ihrem SAIF-Risikobericht identifizierten Risiken eingehen? Noch heute loslegen.

Gängige Einsatzmöglichkeiten

Data Poisoning

Im Rahmen des Engagements von Google Cloud für mehr Sicherheit bieten unsere Basismodelle umfassende Zugriffskontrollen, um nicht autorisiertes Kopieren oder Lesen zu verhindern, sowie modernste Erkennungsfunktionen zur Überwachung nicht autorisierter Aktionen.

Google Cloud bietet auch Einstellungen, die unsere Kunden auf unserer Plattform konfigurieren können, um ihre Nutzung unserer Modelle oder Ihrer eigenen Dienste von Drittanbietern zu schützen. Organisationsrichtlinien und VPC Service Controls verhindern die Daten-Exfiltration. Außerdem bieten sie präzise Steuerelemente für die Identitäts- und Zugriffsverwaltung (IAM), die unbefugten Zugriff verhindern.

Weitere Informationen dazu, wie Google Cloud Kunden beim Schutz ihrer Daten unterstützt:

  • VPC Service Controls: Sie können Daten-Exfiltration verhindern, indem Sie Perimeterbereiche für Ihre Cloud-Ressourcen, sensiblen Daten und Netzwerke erstellen, einschließlich Vertex AI-spezifischer Richtlinien.
  • Mit dem Organisationsrichtliniendienst können Sie Sicherheitsvorkehrungen treffen, um zu erzwingen, welche Ressourcenkonfigurationen zugelassen oder abgelehnt werden.
  • Mit Vertex AI Model Registry können Sie den Lebenszyklus von ML-Modellen organisieren, verfolgen und verwalten.
  • Verwaltung des Datensicherheitsstatus: Steuern Sie die Modelle, Datasets und zugehörigen ML-Artefakte für Sicherheit, Datenschutz und Compliance über Zugriffs- und Ablaufsteuerungsrichtlinien.
  • Confidential AI auf Basis von Confidential Computing erweitert hardwarebasierten Daten- und Modellschutz mit Vertraulichkeit, Integrität und Isolierung von der CPU auf GPUs. Dies ermöglicht schnellere Arbeitslasten, die für KI und maschinelles Lernen entscheidend sind. Wir haben vor Kurzem zwei neue Confidential Computing-Angebote angekündigt, die speziell für den Schutz und die Vertraulichkeit von KI-/ML-Arbeitslasten entwickelt wurden: Confidential VMs auf Basis von NVIDIA H100 Tensor Core-GPUs und Confidential VMs mit Advanced Matrix Extensions (Intel AMX) von Intel. Weitere Informationen
  • Google Privileged Access Management: Mit Access Approval, Access Transparency und Key Access Justifications sorgen Sie für mehr Vertrauen in Ihre Daten und den Zugriff auf Verschlüsselungsschlüssel.Google gibt Kundendatenzugriffsanfragen von Google-Mitarbeitern weiter und bietet Kunden die Möglichkeit, explizite (Access Approval für den Kunden als Mehrparteien-Genehmiger) oder kritographisch erzwungene begründungsbasierte Kontrollen (Key Access Justifications) für den Datenzugriff von Cloud-Anbietern, einschließlich KI-Arbeitslasten, zu verlangen. Kryptografische Verifizierung und detaillierte Logs sorgen für vollständige Transparenz und Kontrolle und stärken das Vertrauen in den Umgang von Google mit Ihren sensiblen Daten, einschließlich KI-bezogener Daten. 

    Im Rahmen des Engagements von Google Cloud für mehr Sicherheit bieten unsere Basismodelle umfassende Zugriffskontrollen, um nicht autorisiertes Kopieren oder Lesen zu verhindern, sowie modernste Erkennungsfunktionen zur Überwachung nicht autorisierter Aktionen.

    Google Cloud bietet auch Einstellungen, die unsere Kunden auf unserer Plattform konfigurieren können, um ihre Nutzung unserer Modelle oder Ihrer eigenen Dienste von Drittanbietern zu schützen. Organisationsrichtlinien und VPC Service Controls verhindern die Daten-Exfiltration. Außerdem bieten sie präzise Steuerelemente für die Identitäts- und Zugriffsverwaltung (IAM), die unbefugten Zugriff verhindern.

    Weitere Informationen dazu, wie Google Cloud Kunden beim Schutz ihrer Daten unterstützt:

    • VPC Service Controls: Sie können Daten-Exfiltration verhindern, indem Sie Perimeterbereiche für Ihre Cloud-Ressourcen, sensiblen Daten und Netzwerke erstellen, einschließlich Vertex AI-spezifischer Richtlinien.
    • Mit dem Organisationsrichtliniendienst können Sie Sicherheitsvorkehrungen treffen, um zu erzwingen, welche Ressourcenkonfigurationen zugelassen oder abgelehnt werden.
    • Mit Vertex AI Model Registry können Sie den Lebenszyklus von ML-Modellen organisieren, verfolgen und verwalten.
    • Verwaltung des Datensicherheitsstatus: Steuern Sie die Modelle, Datasets und zugehörigen ML-Artefakte für Sicherheit, Datenschutz und Compliance über Zugriffs- und Ablaufsteuerungsrichtlinien.
    • Confidential AI auf Basis von Confidential Computing erweitert hardwarebasierten Daten- und Modellschutz mit Vertraulichkeit, Integrität und Isolierung von der CPU auf GPUs. Dies ermöglicht schnellere Arbeitslasten, die für KI und maschinelles Lernen entscheidend sind. Wir haben vor Kurzem zwei neue Confidential Computing-Angebote angekündigt, die speziell für den Schutz und die Vertraulichkeit von KI-/ML-Arbeitslasten entwickelt wurden: Confidential VMs auf Basis von NVIDIA H100 Tensor Core-GPUs und Confidential VMs mit Advanced Matrix Extensions (Intel AMX) von Intel. Weitere Informationen
    • Google Privileged Access Management: Mit Access Approval, Access Transparency und Key Access Justifications sorgen Sie für mehr Vertrauen in Ihre Daten und den Zugriff auf Verschlüsselungsschlüssel.Google gibt Kundendatenzugriffsanfragen von Google-Mitarbeitern weiter und bietet Kunden die Möglichkeit, explizite (Access Approval für den Kunden als Mehrparteien-Genehmiger) oder kritographisch erzwungene begründungsbasierte Kontrollen (Key Access Justifications) für den Datenzugriff von Cloud-Anbietern, einschließlich KI-Arbeitslasten, zu verlangen. Kryptografische Verifizierung und detaillierte Logs sorgen für vollständige Transparenz und Kontrolle und stärken das Vertrauen in den Umgang von Google mit Ihren sensiblen Daten, einschließlich KI-bezogener Daten. 

      Sie benötigen zusätzliche Unterstützung bei der Bewältigung von KI-Risiken wie der Exfiltration von Modellen, der Manipulation von Modellquellen und der Datenbedrohung?

      Die Beratungsdienste von Google Cloud unterstützen Sie dabei, einen starken KI-Sicherheitsstatus für Modell- und Datenzugriffskontrollen zu erreichen. 

      • Sichere Cloud-Grundlagen: Schaffen Sie eine solide und sichere Infrastruktur mit den erforderlichen Schutzmaßnahmen zur Ausführung von KI-Arbeitslasten.
      • Sicherheitsbeschleuniger für generative KI: Hier erfahren Sie von den KI-Sicherheitsexperten von Google, wie Sie das Secure AI Framework von Google implementieren, um Ihre auf generativer KI basierenden Arbeitslasten vor KI-spezifischen Risiken zu schützen.
      • Sicherheitshärtung: Sicheres Design und End-to-End-Bereitstellung von KI-Diensten mithilfe von Infrastructure as Code (IaC).
      • Erweiterte Bedrohungssimulationen: Simulieren Sie reale KI-Bedrohungen in einer isolierten Google Cloud-Umgebung, um Sicherheitsteams zu schulen und ihre Bereitschaft für die Reaktion auf Sicherheitsvorfälle zu bewerten.

      Google Cloud Consulting Services kontaktieren

      Arbeiten Sie mit Mandiant-Experten zusammen, um Sie bei der sicheren Nutzung von KI zu unterstützen. 

      • Red-Team-Einsatz für KI: Validieren Sie Ihre Abwehrmaßnahmen zum Schutz von KI-Systemen und bewerten Sie Ihre Fähigkeit, einen aktiven Angriff mit KI-Systemen zu erkennen und darauf zu reagieren.
      • Nutzung von KI schützen: Bewerten Sie die auf KI-Modellen basierende Architektur, den Schutz von Daten und die Anwendungen und entwickeln Sie Bedrohungsmodelle mithilfe von Sicherheits-Frameworks.

      Sicherheitsexperten von Mandiant kontaktieren


      Sie fragen sich, auf welche SAIF-Fragen zur Selbstbewertung der Risikobewertung sich diese Risikokategorie bezieht?

      • Können Sie böswillige oder versehentliche Änderungen an Ihren Trainings-, Abstimmungs- oder Evaluationsdaten erkennen, entfernen und beheben?
      • Haben Sie ein vollständiges Inventar aller Modelle, Datasets (für Training, Abstimmung oder Bewertung) und zugehörigen ML-Artefakte (z. B. Code)?
      • Haben Sie robuste Zugriffssteuerungen für alle Modelle, Datasets und zugehörigen ML-Artefakte, um nicht autorisiertes Lesen oder Kopieren zu minimieren, zu erkennen und zu verhindern?
      • Können Sie dafür sorgen, dass alle Daten, Modelle und Code, die zum Trainieren, Abstimmen oder Bewerten von Modellen verwendet werden, nicht ohne Erkennung während der Modellentwicklung und während der Bereitstellung manipuliert werden können?
      • Werden die Frameworks, Bibliotheken, Softwaresysteme und Hardwarekomponenten, die bei der Entwicklung und Bereitstellung Ihrer Modelle verwendet werden, auf Sicherheitslücken analysiert und vor solchen geschützt?
      SAIF-Risikoselbstbewertung durchführen

        Denial-of-ML-Dienst

        Sicherheit hat bei Google Cloud höchste Priorität und wir verfolgen einen tief gehenden Verteidigungsansatz. Im Rahmen unserer umfassenden Maßnahmen sind wir in der Lage, uns vor Dienstunterbrechungen wie Distributed Denial of Service (DDoS) zu schützen. Mit Cloud Armor bieten wir außerdem zusätzliche Kontrollen, mit denen Kunden sich vor solchen DDoS- und Anwendungsebene-Angriffen schützen können.

        Unsere integrierte Sicherheits- und Risikomanagementlösung, Security Command Center, schützt Vertex AI-Anwendungen mit präventiven und detektivischen Kontrollen. Dazu gehören die Reaktion auf Vertex AI-Sicherheitsereignisse und eine Angriffspfadsimulation, um nachzuahmen, wie ein echter Angreifer auf Vertex AI-Arbeitslasten zugreifen und diese manipulieren könnte.   

        Für KI-Anwendungen können Kunden auch Model Armor verwenden, um Prompts und Antworten des Foundation Model zu untersuchen, weiterzuleiten und zu schützen. Sie kann Kunden dabei helfen, Risiken wie Prompt-Injections, Jailbreaks, schädliche Inhalte und den Verlust sensibler Daten zu mindern. Model Armor kann in Produkte in Google Cloud eingebunden werden, einschließlich Vertex AI.Wenn Sie mehr über den Vorabzugriff auf Model Armor erfahren möchten, können Sie sich hier registrieren oder unser On-Demand-Video ansehen.


          Sicherheit hat bei Google Cloud höchste Priorität und wir verfolgen einen tief gehenden Verteidigungsansatz. Im Rahmen unserer umfassenden Maßnahmen sind wir in der Lage, uns vor Dienstunterbrechungen wie Distributed Denial of Service (DDoS) zu schützen. Mit Cloud Armor bieten wir außerdem zusätzliche Kontrollen, mit denen Kunden sich vor solchen DDoS- und Anwendungsebene-Angriffen schützen können.

          Unsere integrierte Sicherheits- und Risikomanagementlösung, Security Command Center, schützt Vertex AI-Anwendungen mit präventiven und detektivischen Kontrollen. Dazu gehören die Reaktion auf Vertex AI-Sicherheitsereignisse und eine Angriffspfadsimulation, um nachzuahmen, wie ein echter Angreifer auf Vertex AI-Arbeitslasten zugreifen und diese manipulieren könnte.   

          Für KI-Anwendungen können Kunden auch Model Armor verwenden, um Prompts und Antworten des Foundation Model zu untersuchen, weiterzuleiten und zu schützen. Sie kann Kunden dabei helfen, Risiken wie Prompt-Injections, Jailbreaks, schädliche Inhalte und den Verlust sensibler Daten zu mindern. Model Armor kann in Produkte in Google Cloud eingebunden werden, einschließlich Vertex AI.Wenn Sie mehr über den Vorabzugriff auf Model Armor erfahren möchten, können Sie sich hier registrieren oder unser On-Demand-Video ansehen.


            Benötigen Sie zusätzliche Unterstützung bei der Bewältigung von KI-Risiken wie Denial-of-ML-Diensten und Modell-Reverse Engineering?

            Arbeiten Sie mit Mandiant-Experten zusammen, um KI sicher zu nutzen.

            • Red-Team-Einsatz für KI: Validieren Sie Ihre Abwehrmaßnahmen zum Schutz von KI-Systemen und bewerten Sie Ihre Fähigkeit, einen aktiven Angriff mit KI-Systemen zu erkennen und darauf zu reagieren.
            • Nutzung von KI schützen: Bewerten Sie die auf KI-Modellen basierende Architektur, den Schutz von Daten und die Anwendungen und entwickeln Sie Bedrohungsmodelle mithilfe von Sicherheits-Frameworks.

            Sicherheitsexperten von Mandiant kontaktieren


            Sie fragen sich, auf welche SAIF-Fragen zur Selbstbewertung der Risikobewertung sich diese Risikokategorie bezieht?

            • Schützen Sie Ihre auf generativer KI basierenden Anwendungen und Modelle vor umfangreichen schädlichen Abfragen von Nutzerkonten, Geräten oder über APIs?
            SAIF-Risikoselbstbewertung durchführen

              KI-Sicherheitsstatus mit Google Cloud verbessern

              Möchten Sie verstehen, was den Schutz von KI so einzigartig macht? Hier lernen Sie die Sicherheitsunterschiede zwischen KI und traditioneller Softwareentwicklung kennen.

              Möchten Sie KI für Ihr Unternehmen einführen? Beginnen Sie noch heute mit sieben wichtigen Fragen, die CISOs stellen und beantworten sollten, um KI sicher einsetzen und deren Sicherheitsvorteile nutzen zu können.

              Generative KI, Datenschutz und Google Cloud: Sind Sie bereit für KI-Datenkomponenten? Hier erfahren Sie mehr über den Datenschutz- und Datenschutzansatz von Google Cloud bei der Entwicklung von Diensten mit generativer KI.

              Google Cloud