Potenzia la sicurezza con l'AI generativa
Immagina di poter avere una visibilità contestuale e strategica sulle ultime minacce, un ambiente in cui le configurazioni di sicurezza vengono create e gestite automaticamente e in cui anche gli utenti non esperti possono rilevare, esaminare e rispondere alle minacce informatiche con grande fiducia.
Google Cloud sta realizzando questa nuova realtà grazie all'AI generativa.
Introduzione a Google Cloud Security AI Workbench
Security AI Workbench si basa sull'infrastruttura Vertex AI di Google Cloud e sfrutta la visibilità del panorama delle minacce di Google e Mandiant per alimentare l'ecosistema della sicurezza e il portafoglio di prodotti di Google Cloud per offrire modalità di difesa più dirette, creative ed efficaci al fine di proteggere le organizzazioni come mai prima d'ora.
- Basato su Sec-PaLM, un modello Large Language Model (LLM) specializzato che sfrutta l'intelligence sulle minacce di Google e Mandiant.
- Architettura di plug-in estensibile che consente a clienti e partner di creare soluzioni basate sulla piattaforma e mantenere allo stesso tempo il controllo e l'isolamento sui dati.
- Assistenza per la sicurezza e la conformità dei dati di livello enterprise.
Rileva, contieni e blocca la diffusione delle minacce
Grazie ai miglioramenti dell'AI, ora è possibile combinare l'eccezionale intelligence sulle minacce con l'analisi degli incidenti point-in-time e nuovi sistemi di rilevamento e analisi basati sull'AI per identificare e contenere le infezioni iniziali, nonché prevenirne la diffusione.
Prodotti come VirusTotal utilizzano l'AI per analizzare e spiegare il comportamento di script potenzialmente dannosi. Mandiant Breach Analytics for Chronicle utilizza l'AI generativa per contestualizzare e riepilogare le minacce nell'ambiente in base agli ultimi dati di intelligence sulle minacce di Mandiant.
Riduci il lavoro manuale
L'AI generativa può ridurre gran parte del lavoro ripetitivo che affligge i professionisti della cybersicurezza. Stiamo aggiungendo risorse di intelligence al fine di ridurre il lavoro manuale necessario per gestire più ambienti, generare funzionalità e design di sicurezza e creare controlli di sicurezza.
Assured OSS, che si occupa della gestione continua delle vulnerabilità del software open source (OSS), utilizza soluzioni LLM per coprire un numero notevolmente maggiore di pacchetti nel nostro programma. Mandiant Threat Intelligence AI offre funzionalità basate sull'AI che aiutano a riepilogare, valutare e assegnare la priorità ai dati sulle minacce tra fonti pubbliche e proprietarie.
Semplifica la sicurezza sia per gli esperti che per i non esperti
Prevediamo che la nostra AI generativa modificherà profondamente il modo in cui i professionisti con vari livelli di competenze gestiscono la sicurezza. Le funzionalità basate sull'AI assistiva riepilogano le minacce complesse, valutano il rischio e consentono la ricerca e l'indagine in linguaggio naturale per migliorare l'efficacia.
L'AI di Chronicle consente di cercare gli eventi di sicurezza e interagire con i risultati in modo colloquiale, porre domande di follow-up ed eseguire rapidamente i rilevamenti.
L'AI di Security Command Center traduce grafici complessi degli attacchi in spiegazioni testuali dell'esposizione agli attacchi, inclusi gli asset interessati e le misure consigliate per mitigare l'impatto.
In prima linea per l'AI responsabile
Ci impegniamo ad adottare un'AI responsabile. Sfruttando l'infrastruttura Vertex AI di Google Cloud, i clienti possono controllare i propri dati con funzionalità di livello enterprise come isolamento e protezione dei dati, nonché il supporto della conformità.
Domande frequenti
Quando saranno disponibili le funzionalità di Security AI Workbench?
VirusTotal Code Insight, per adesso disponibile in anteprima, è il primo esempio di utilizzo di Security AI Workbench per i clienti. Nei prossimi mesi implementeremo altre offerte per i trusted tester, disponibili in anteprima per altri utenti questa estate.
Quale LLM viene utilizzato per Security AI Workbench?
Security AI utilizza Sec-PaLM, un modello LLM di sicurezza specializzato. Il modello di sicurezza è addestrato su PaLM e ottimizzato per i casi d'uso di sicurezza. Incorpora le nostre informazioni sulla sicurezza, ad esempio la visibilità di Google nel panorama delle minacce e l'intelligence all'avanguardia di Mandiant su vulnerabilità, malware, indicatori di minacce e profili di soggetti con comportamenti pericolosi.
Quali sono le pratiche relative ai dati per Google Cloud Security AI Workbench? Verranno utilizzati i dati dei clienti per addestrare questi modelli? Come verrà protetta la privacy?
Security AI Workbench consente ai clienti di rendere disponibili i propri dati privati nella piattaforma in fase di inferenza. In questo modo, rispettiamo i nostri impegni per la privacy dei dati nei confronti dei clienti. È un modo utile per garantire il controllo dei dati. Poiché Security AI Workbench si basa sull'infrastruttura Vertex AI di Google Cloud, i clienti possono usufruire di funzionalità di livello enterprise come isolamento elevato dei dati, protezione dei dati e supporto della conformità.