Secure AI Framework (SAIF) e Google Cloud
Secure AI Framework (SAIF) offre indicazioni alle organizzazioni che vogliono proteggere i sistemi di AI.
Google ha creato SAIF.google, che include una valutazione del rischio SAIF per supportare l'implementazione di SAIF nelle organizzazioni, per aiutare a creare ed eseguire il deployment di sistemi di AI in modo sicuro.
Di seguito, esamineremo il portafoglio Google Cloud per la sicurezza attraverso il punto di vista di SAIF e mostreremo come possiamo aiutare la tua organizzazione a mitigare i potenziali rischi dell'AI con vari controlli e soluzioni cloud.
Come funziona
Vuoi affrontare i rischi identificati nel tuo report sui rischi SAIF? Inizia subito.
Utilizzi comuni
Nell'ambito dell'impegno di Google Cloud per la sicurezza, i nostri modelli di base dispongono di ampi controlli di accesso per impedire la copia o la lettura non autorizzate, nonché di funzionalità di rilevamento all'avanguardia per monitorare le azioni non autorizzate.
Google Cloud fornisce anche controlli che i nostri clienti possono configurare sulla nostra piattaforma per proteggere l'utilizzo dei nostri modelli o dei propri servizi di terze parti. I criteri dell'organizzazione e i controlli di servizio VPC impediscono l'esfiltrazione dei dati, oltre a controlli IAM (Identity and Access Management) granulari che prevengono l'accesso non autorizzato.
Scopri di più sui modi in cui Google Cloud aiuta i clienti a proteggere i propri dati:
I servizi di consulenza di Google Cloud ti aiutano a ottenere una solida postura di sicurezza dell'AI per i controlli di accesso ai modelli e ai dati.
Contatta i servizi di consulenza di Google Cloud
Collabora con gli esperti di Mandiant per sfruttare l'AI in modo sicuro.
Contatta gli esperti di sicurezza di Mandiant
Nell'ambito dell'impegno di Google Cloud per la sicurezza, i nostri modelli di base dispongono di ampi controlli di accesso per impedire la copia o la lettura non autorizzate, nonché di funzionalità di rilevamento all'avanguardia per monitorare le azioni non autorizzate.
Google Cloud fornisce anche controlli che i nostri clienti possono configurare sulla nostra piattaforma per proteggere l'utilizzo dei nostri modelli o dei propri servizi di terze parti. I criteri dell'organizzazione e i controlli di servizio VPC impediscono l'esfiltrazione dei dati, oltre a controlli IAM (Identity and Access Management) granulari che prevengono l'accesso non autorizzato.
Scopri di più sui modi in cui Google Cloud aiuta i clienti a proteggere i propri dati:
I servizi di consulenza di Google Cloud ti aiutano a ottenere una solida postura di sicurezza dell'AI per i controlli di accesso ai modelli e ai dati.
Contatta i servizi di consulenza di Google Cloud
Collabora con gli esperti di Mandiant per sfruttare l'AI in modo sicuro.
Contatta gli esperti di sicurezza di Mandiant
La sicurezza è un elemento fondamentale di Google Cloud e adottiamo un approccio di difesa in profondità. Nell'ambito delle nostre misure efficaci, abbiamo solide capacità di protezione contro interruzioni del servizio come gli attacchi distributed denial of service (DDoS). Forniamo anche controlli aggiuntivi che i clienti possono utilizzare per proteggersi da questi attacchi DDoS e a livello di applicazione tramite Cloud Armor.
La nostra soluzione integrata di sicurezza e gestione dei rischi, Security Command Center, protegge le applicazioni Vertex AI con controlli di prevenzione e rilevamento. Ciò include la risposta agli eventi di sicurezza di Vertex AI e la simulazione del percorso di attacco per imitare il modo in cui un malintenzionato reale potrebbe accedere e compromettere i carichi di lavoro di Vertex AI.
Per le applicazioni di AI, i clienti possono anche utilizzare Model Armor per ispezionare, instradare e proteggere i prompt e le risposte del foundation model. Può aiutare i clienti a mitigare i rischi come prompt injection, jailbreak, contenuti tossici ed esfiltrazione di dati sensibili. Model Armor si integrerà con i prodotti di Google Cloud, tra cui Vertex AI. Se vuoi saperne di più sull'accesso in anteprima a Model Armor, puoi registrarti qui o guardare il nostro video on demand.
Collabora con gli esperti Mandiant per sfruttare l'AI in modo sicuro.
Contatta gli esperti di sicurezza di Mandiant
La sicurezza è un elemento fondamentale di Google Cloud e adottiamo un approccio di difesa in profondità. Nell'ambito delle nostre misure efficaci, abbiamo solide capacità di protezione contro interruzioni del servizio come gli attacchi distributed denial of service (DDoS). Forniamo anche controlli aggiuntivi che i clienti possono utilizzare per proteggersi da questi attacchi DDoS e a livello di applicazione tramite Cloud Armor.
La nostra soluzione integrata di sicurezza e gestione dei rischi, Security Command Center, protegge le applicazioni Vertex AI con controlli di prevenzione e rilevamento. Ciò include la risposta agli eventi di sicurezza di Vertex AI e la simulazione del percorso di attacco per imitare il modo in cui un malintenzionato reale potrebbe accedere e compromettere i carichi di lavoro di Vertex AI.
Per le applicazioni di AI, i clienti possono anche utilizzare Model Armor per ispezionare, instradare e proteggere i prompt e le risposte del foundation model. Può aiutare i clienti a mitigare i rischi come prompt injection, jailbreak, contenuti tossici ed esfiltrazione di dati sensibili. Model Armor si integrerà con i prodotti di Google Cloud, tra cui Vertex AI. Se vuoi saperne di più sull'accesso in anteprima a Model Armor, puoi registrarti qui o guardare il nostro video on demand.
Collabora con gli esperti Mandiant per sfruttare l'AI in modo sicuro.
Contatta gli esperti di sicurezza di Mandiant