Mehr Sicherheit dank generativer KI

Stellen Sie sich eine Welt vor, in der Sie kontextbezogene und umsetzbare Informationen zu den neuesten Bedrohungen erhalten, eine Welt, in der Sicherheitskonfigurationen automatisch erstellt und verwaltet werden und in der auch Nicht-Experten Bedrohungen erkennen, untersuchen und souverän auf Cyberbedrohungen reagieren.

Bei Google Cloud gestalten wir diese Welt mit generativer KI.    

Einführung in Google Cloud Security AI Workbench

Security AI Workbench basiert auf der Vertex AI-Infrastruktur von Google Cloud und nutzt die Sichtbarkeit der Bedrohungslandschaft von Google und Mandiant. Security AI Workbench stärkt das Sicherheitssystem und Produktportfolio von Google Cloud und bietet Verteidigern mehr natürliche, kreative und effektive Möglichkeiten, ihre Organisationen zu schützen.

  • Sec-PaLM 2 bietet ein spezielles LLM-Modell für die Sicherheit, das sich die Bedrohungsinformationen von Google und Mandiant zunutze macht.
  • Erweiterbare Plug-in-Architektur, die es Kunden und Partnern ermöglicht, auf der Plattform aufzubauen und gleichzeitig die Kontrolle und die Isolation von Daten zu behalten.
  • Support für Datensicherheit und Compliance auf Unternehmensniveau.

In Aktion ansehen

Sicherheit

Erkennung, Eindämmung und Vermeidung von Bedrohungen

Mit unseren KI-Fortschritten können Sie jetzt erstklassige Threat Intelligence mit Point-in-Time Vorfallanalyse und neuartige KI-basierte Erkennungen und Analytik zur Erkennung und Eindämmung von Erstinfektionen kombinieren und so helfen, ihre Ausbreitung zu verhindern.

Produkte wie VirusTotal nutzen KI, um das Verhalten potenziell schädlicher Skripts zu analysieren und zu erklären. Mandiant Breach Analytics for Chronicle nutzt generative KI, um Bedrohungen in Ihrer Umgebung zu kontextualisieren und zusammenzufassen. Grundlage dafür ist die neueste Threat Intelligence von Mandiant.

Aufwand und manuelle Arbeit reduzieren

Mit der generativen KI lassen sich viele der sich wiederholenden Aufgaben reduzieren, die Fachleute für Internetsicherheit beeinträchtigen. Durch intelligente Lösungen lassen sich der Aufwand für das Verwalten mehrerer Umgebungen, das Erstellen von Sicherheitsdesign und -funktionen sowie das Generieren von Sicherheitskontrollen reduzieren. 

Assured OSS verwendet das Open-Source-Sicherheitslücken-Management. Dabei werden LLMs eingesetzt, um deutlich mehr Pakete in unserem Programm abzudecken. Mandiant Threat Intelligence AI bietet KI-gestützte Funktionen zum Zusammenfassen, Bewerten und Priorisieren von Bedrohungsdaten aus proprietären und öffentlichen Quellen.

ML/KI
Simplify

Sicherheit für Experten und Nicht-Experten gleichermaßen vereinfachen

Wir gehen davon aus, dass sich die generative KI grundlegend darauf auswirken wird, wie Fachkräfte auf unterschiedlichen Kompetenzstufen die Sicherheit verbessern. Mit KI-Hilfsfunktionen werden komplexe Bedrohungen zusammengefasst, Risiken bewertet und die Suche und Untersuchung natürlicher Sprache ermöglicht. So wird eine neue Ära der Effektivität eingeleitet.

Mit Duet AI für Chronicle können Sie in Ihren Sicherheitsereignissen suchen und in Gesprächen mit Ergebnissen interagieren, Folgefragen stellen und schnell Erkennungen generieren.

Security Command Center KI wandelt komplexe Grafiken von Angriffen in eine Klartextdarstellung um, einschließlich betroffener Assets und empfohlener Maßnahmen zur Risikominimierung.

Verantwortungsbewusstsein bei verantwortungsbewusster KI

Wir setzen uns für verantwortungsbewusste KI ein. Basierend auf der Vertex AI-Infrastruktur von Google Cloud können Kunden ihre Daten mit Funktionen der Enterprise-Klasse wie Datenisolierung, Datenschutz und Compliance-Support steuern.

Informationen zu verantwortungsbewusster KI bei Google

Häufig gestellte Fragen

Wann werden Security AI Workbench-Features verfügbar sein?

VirusTotal Code Insight ist jetzt in der Vorabversion verfügbar. Es ist unser erstes Beispiel, wie wir Security AI Workbench für unsere Kunden nutzen können. In den nächsten Monaten führen wir weitere Angebote für vertrauenswürdige Tester ein. Sie werden diesen Sommer in der Vorabversion verfügbar sein.

Welche LLM wird für Security AI Workbench verwendet?

Security AI verwendet das spezielle Sicherheits-LLM Sec-PaLM 2. Das Sicherheitsmodell ist in PaLM trainiert und auf Sicherheitsanwendungsfälle abgestimmt. Es umfasst unsere Sicherheitsinformationen, z. B. den Einblick von Google in die Bedrohungslandschaft und wichtige Kenntnisse von Mandiant im Bereich Sicherheitslücken, Malware, Bedrohungsindikatoren und Profile von verhaltensbedrohenden Akteuren.

Wie sieht Ihr Umgang mit Daten in Bezug auf Google Cloud Security AI Workbench aus? Werden Sie Kundendaten zum Trainieren dieser Modelle verwenden und wie denken Sie über den Datenschutz?

Mit Security AI Workbench können Kunden ihre privaten Daten zum Zeitpunkt der Inferenz für die Plattform verfügbar machen. Wir halten dabei unsere Datenschutzverpflichtungen gegenüber Kunden ein. Mit diesem Feature können Sie Ihre Daten steuern. Da Security AI Workbench auf der Vertex AI-Infrastruktur von Google Cloud basiert, erhalten Kunden Funktionen der Enterprise-Klasse wie strikte Datenisolierung, Datenschutz und Compliance-Support.