Secure AI Framework (SAIF) und Google Cloud

Google-Sicherheitssymbol

Secure AI Framework (SAIF) und Google Cloud

Secure AI Framework (SAIF) und Google Cloud

Das Secure AI Framework (SAIF) bietet Unternehmen, die KI-Systeme schützen möchten, eine Anleitung.

Google hat SAIF.google erstellt, das eine SAIF-Selbstbewertung des Risikos umfasst, damit Unternehmen SAIF in die Praxis umsetzen und KI-Systeme sicher entwickeln und bereitstellen können.

Im Folgenden betrachten wir das Google Cloud Security-Portfolio aus der Perspektive des SAIF und zeigen, wie wir Ihr Unternehmen mit verschiedenen Cloud-Lösungen und Kontrollen bei der Minimierung potenzieller KI-Risiken unterstützen können.

Funktionsweise

Sie möchten die im SAIF-Risikobericht aufgeführten Risiken angehen? Noch heute loslegen.

Gängige Einsatzmöglichkeiten

Data poisoning

Im Rahmen des Sicherheitsversprechens von Google Cloud verfügen unsere Foundation Models über umfangreiche Zugriffssteuerungen, um unbefugtes Kopieren oder Lesen zu verhindern, sowie über modernste Erkennungsfunktionen, um unbefugte Aktionen zu überwachen.

Google Cloud bietet außerdem Steuerelemente, die unsere Kunden auf unserer Plattform konfigurieren können, um die Nutzung unserer Modelle oder Ihrer eigenen Drittanbieterdienste zu schützen. Organisationsrichtlinien und VPC Service Controls verhindern die Exfiltration von Daten. Außerdem gibt es detaillierte IAM-Einstellungen (Identity and Access Management), die unbefugten Zugriff verhindern.

Weitere Informationen dazu, wie Google Cloud Kunden beim Schutz ihrer Daten unterstützt:

    Im Rahmen des Sicherheitsversprechens von Google Cloud verfügen unsere Foundation Models über umfangreiche Zugriffssteuerungen, um unbefugtes Kopieren oder Lesen zu verhindern, sowie über modernste Erkennungsfunktionen, um unbefugte Aktionen zu überwachen.

    Google Cloud bietet außerdem Steuerelemente, die unsere Kunden auf unserer Plattform konfigurieren können, um die Nutzung unserer Modelle oder Ihrer eigenen Drittanbieterdienste zu schützen. Organisationsrichtlinien und VPC Service Controls verhindern die Exfiltration von Daten. Außerdem gibt es detaillierte IAM-Einstellungen (Identity and Access Management), die unbefugten Zugriff verhindern.

    Weitere Informationen dazu, wie Google Cloud Kunden beim Schutz ihrer Daten unterstützt:

      Sie benötigen zusätzliche Unterstützung bei der Bewältigung von KI-Risiken wie Modellexfiltration, Manipulation der Modellquelle und Data Poisoning?

      Google Cloud Consulting unterstützt Sie dabei, einen starken KI-Sicherheitsstatus für die Zugriffssteuerung von Modellen und Daten zu erreichen. 

      • Sichere Cloud-Grundlagen: Schaffen Sie eine solide und sichere Infrastrukturgrundlage mit den notwendigen Schutzmaßnahmen, um KI-Arbeitslasten auszuführen.
      • Sicherheitsbeschleuniger für generative KI: Die KI-Sicherheitsexperten von Google zeigen Ihnen, wie Sie das Secure AI Framework von Google implementieren, um Ihre Arbeitslasten mit generativer KI vor KI-spezifischen Risiken zu schützen.
      • Sicherheitshärtung: Sicheres Design und End-to-End-Bereitstellung von KI-Diensten mit Infrastructure as Code (IaC).
      • Erweiterte Bedrohungssimulationen: Simulieren Sie KI-Bedrohungen aus der Praxis in einer isolierten Google Cloud-Umgebung, um Sicherheitsteams zu schulen und ihre Bereitschaft zur Reaktion auf Sicherheitsvorfälle zu bewerten.

      Google Cloud Consulting kontaktieren

      Mandiant-Fachleute unterstützen Sie dabei, KI sicher zu nutzen. 

      • Red Teaming für KI: Validieren Sie Ihre Schutzmaßnahmen für KI-Systeme und bewerten Sie Ihre Fähigkeit, einen aktiven Angriff auf KI-Systeme zu erkennen und darauf zu reagieren.
      • KI-Nutzung absichern: Bewerten Sie die auf KI-Modellen basierende Architektur und Datenabwehr und damit zusammenhängende Anwendungen. Entwickeln Sie Bedrohungsmodelle mithilfe von Sicherheitsframeworks.

      Sicherheitsexperten von Mandiant kontaktieren


      Sie fragen sich, welche Fragen zur SAIF-Selbstbewertung des Risikos zu dieser Risikokategorie gehören?
      • Können Sie schädliche oder versehentliche Änderungen an Ihren Trainings-, Abstimmungs- oder Bewertungsdaten erkennen, entfernen und beheben? 
      • Haben Sie ein vollständiges Inventar aller Modelle, Datasets (für Training, Abstimmung oder Bewertung) und zugehörigen ML-Artefakte (z. B. Code)?
      • Haben Sie robuste Zugriffssteuerungen für alle Modelle, Datasets und zugehörigen ML-Artefakte, um unbefugtes Lesen oder Kopieren zu minimieren, zu erkennen und zu verhindern? 
      • Können Sie sicherstellen, dass alle Daten, Modelle und Codes, die zum Trainieren, Optimieren oder Bewerten von Modellen verwendet werden, während der Modellentwicklung und während der Bereitstellung nicht unbemerkt manipuliert werden können?
      • Werden die Frameworks, Bibliotheken, Softwaresysteme und Hardwarekomponenten, die bei der Entwicklung und Bereitstellung Ihrer Modelle verwendet werden, auf Sicherheitslücken analysiert und dagegen geschützt?

        Denial of Service (ML)

        Sicherheit ist ein zentrales Element von Google Cloud und wir verfolgen einen mehrschichtigen Sicherheitsansatz. Im Rahmen unserer robusten Maßnahmen haben wir starke Fähigkeiten, um vor Dienstunterbrechungen wie DDoS-Angriffen (Distributed Denial of Service) zu schützen. Außerdem bieten wir zusätzliche Steuerungsmöglichkeiten, mit denen Kunden sich über Cloud Armor vor DDoS-Angriffen und Angriffen auf Anwendungsebene schützen können.

        Unsere integrierte Sicherheits- und Risikomanagementlösung Security Command Center schützt Anwendungen der Gemini Enterprise Agent Platform mit präventiven und detektiven Kontrollen. Dazu gehört die Reaktion auf sicherheitsrelevante Ereignisse der Agentenplattform und die Simulation von Angriffspfaden, um nachzubilden, wie ein Angreifer in der realen Welt auf die Arbeitslasten der Agentenplattform zugreifen und sie kompromittieren könnte.   

        Für KI-Anwendungen können Kunden auch Model Armor verwenden, um Prompts und Antworten von Foundation Models zu prüfen, weiterzuleiten und zu schützen. Damit können Kundenunternehmen Risiken wie Prompt Injection, Jailbreaking, schädliche Inhalte und das Abfließen sensibler Daten minimieren. Model Armor wird in Produkte in Google Cloud integriert, einschließlich der Agent Platform.Wenn Sie mehr über den Vorabzugriff auf Model Armor erfahren möchten, können Sie sich hier registrieren oder unser On-Demand-Video ansehen.

          Sicherheit ist ein zentrales Element von Google Cloud und wir verfolgen einen mehrschichtigen Sicherheitsansatz. Im Rahmen unserer robusten Maßnahmen haben wir starke Fähigkeiten, um vor Dienstunterbrechungen wie DDoS-Angriffen (Distributed Denial of Service) zu schützen. Außerdem bieten wir zusätzliche Steuerungsmöglichkeiten, mit denen Kunden sich über Cloud Armor vor DDoS-Angriffen und Angriffen auf Anwendungsebene schützen können.

          Unsere integrierte Sicherheits- und Risikomanagementlösung Security Command Center schützt Anwendungen der Gemini Enterprise Agent Platform mit präventiven und detektiven Kontrollen. Dazu gehört die Reaktion auf sicherheitsrelevante Ereignisse der Agentenplattform und die Simulation von Angriffspfaden, um nachzubilden, wie ein Angreifer in der realen Welt auf die Arbeitslasten der Agentenplattform zugreifen und sie kompromittieren könnte.   

          Für KI-Anwendungen können Kunden auch Model Armor verwenden, um Prompts und Antworten von Foundation Models zu prüfen, weiterzuleiten und zu schützen. Damit können Kundenunternehmen Risiken wie Prompt Injection, Jailbreaking, schädliche Inhalte und das Abfließen sensibler Daten minimieren. Model Armor wird in Produkte in Google Cloud integriert, einschließlich der Agent Platform.Wenn Sie mehr über den Vorabzugriff auf Model Armor erfahren möchten, können Sie sich hier registrieren oder unser On-Demand-Video ansehen.

            Sie benötigen zusätzliche Unterstützung bei der Bewältigung von KI-Risiken wie Denial-of-ML-Service und Reverse Engineering von Modellen?

            Mandiant-Experten unterstützen Sie dabei, KI sicher zu nutzen.

            • Red Teaming für KI: Validieren Sie Ihre Schutzmaßnahmen für KI-Systeme und bewerten Sie Ihre Fähigkeit, einen aktiven Angriff auf KI-Systeme zu erkennen und darauf zu reagieren.
            • KI-Nutzung absichern: Bewerten Sie die auf KI-Modellen basierende Architektur und Datenabwehr und damit zusammenhängende Anwendungen. Entwickeln Sie Bedrohungsmodelle mithilfe von Sicherheitsframeworks.

            Sicherheitsexperten von Mandiant kontaktieren


            Sie fragen sich, welche Fragen zur SAIF-Selbstbewertung des Risikos zu dieser Risikokategorie gehören?
            • Schützen Sie Ihre Anwendungen und Modelle für generative KI vor groß angelegten böswilligen Anfragen von Nutzerkonten, Geräten oder über APIs?

              Mit Google Cloud die KI-Sicherheit verbessern

              Sie möchten wissen, was die KI-Sicherheit so besonders macht? Hier erfahren Sie, wie sich die Sicherheit bei der KI-Entwicklung von der herkömmlichen Softwareentwicklung unterscheidet.

              Sie möchten in Ihrem Unternehmen eine Diskussion über KI anstoßen? Hier finden Sie sieben wichtige Fragen, die CISOs stellen und beantworten sollten, um KI sicher zu nutzen und ihre Vorteile für die Sicherheit zu nutzen.

              Generative KI, Datenschutz und Google Cloud: Sind Sie bereit für die KI-Datenkomponenten? Hier erfahren Sie mehr über den Ansatz von Google Cloud in Bezug auf Datenschutz und Datensicherheit bei der Entwicklung von Diensten, die auf generativer KI basieren.

              Google Cloud