Secure AI Framework (SAIF) e Google Cloud

Gshield

Secure AI Framework (SAIF) e Google Cloud

Secure AI Framework (SAIF) e Google Cloud

Secure AI Framework (SAIF) offre indicazioni alle organizzazioni che vogliono proteggere i sistemi di AI.

Google ha creato SAIF.google, che include una valutazione del rischio SAIF per supportare l'implementazione di SAIF nelle organizzazioni, per aiutare a creare ed eseguire il deployment di sistemi di AI in modo sicuro.

Di seguito, esamineremo il portafoglio Google Cloud per la sicurezza attraverso il punto di vista di SAIF e mostreremo come possiamo aiutare la tua organizzazione a mitigare i potenziali rischi dell'AI con vari controlli e soluzioni cloud.

Come funziona

Vuoi affrontare i rischi identificati nel tuo report sui rischi SAIF? Inizia subito.

Utilizzi comuni

Poisoning dei dati

Nell'ambito dell'impegno di Google Cloud per la sicurezza, i nostri modelli di base dispongono di ampi controlli di accesso per impedire la copia o la lettura non autorizzate, nonché di funzionalità di rilevamento all'avanguardia per monitorare le azioni non autorizzate.

Google Cloud fornisce anche controlli che i nostri clienti possono configurare sulla nostra piattaforma per proteggere l'utilizzo dei nostri modelli o dei propri servizi di terze parti. I criteri dell'organizzazione e i controlli di servizio VPC impediscono l'esfiltrazione dei dati, oltre a controlli IAM (Identity and Access Management) granulari che prevengono l'accesso non autorizzato.

Scopri di più sui modi in cui Google Cloud aiuta i clienti a proteggere i propri dati:

    Nell'ambito dell'impegno di Google Cloud per la sicurezza, i nostri modelli di base dispongono di ampi controlli di accesso per impedire la copia o la lettura non autorizzate, nonché di funzionalità di rilevamento all'avanguardia per monitorare le azioni non autorizzate.

    Google Cloud fornisce anche controlli che i nostri clienti possono configurare sulla nostra piattaforma per proteggere l'utilizzo dei nostri modelli o dei propri servizi di terze parti. I criteri dell'organizzazione e i controlli di servizio VPC impediscono l'esfiltrazione dei dati, oltre a controlli IAM (Identity and Access Management) granulari che prevengono l'accesso non autorizzato.

    Scopri di più sui modi in cui Google Cloud aiuta i clienti a proteggere i propri dati:

      Hai bisogno di ulteriore assistenza per affrontare rischi legati all'AI come l'esfiltrazione dei modelli, la manomissione delle origini dei modelli e il poisoning dei dati?

      I servizi di consulenza di Google Cloud ti aiutano a ottenere una solida postura di sicurezza dell'AI per i controlli di accesso ai modelli e ai dati. 

      • Secure Cloud Foundations: crea basi solide e sicure dell'infrastruttura con le protezioni necessarie per eseguire i carichi di lavoro di AI.
      • Acceleratore per la sicurezza dell'AI generativa: scopri come gli esperti di sicurezza dell'AI di Google implementano il Secure AI Framework di Google per salvaguardare i carichi di lavoro dell'AI generativa dai rischi specifici dell'AI.
      • Protezione della sicurezza: design sicuro ed esecuzione del deployment end-to-end dei servizi di AI utilizzando Infrastructure as Code (IaC).
      • Simulazioni avanzate delle minacce: simula minacce AI del mondo reale in un ambiente Google Cloud isolato per addestrare i team di sicurezza e valutare la loro preparazione a rispondere agli incidenti di sicurezza.

      Contatta i servizi di consulenza di Google Cloud

      Collabora con gli esperti di Mandiant per sfruttare l'AI in modo sicuro. 

      • Red Teaming per l'AI: convalida le difese che proteggono i sistemi di AI e valuta la tua capacità di rilevare e rispondere a un attacco attivo che coinvolge i sistemi di AI.
      • Garantire la sicurezza dell'uso dell'AI: valuta l'architettura, le difese dei dati e le applicazioni create su modelli di AI e sviluppa modelli di minaccia utilizzando i framework di sicurezza.

      Contatta gli esperti di sicurezza di Mandiant


      Vuoi sapere a quali domande del questionario di autovalutazione del rischio SAIF si riferisce questa categoria di rischio?

      • Sei in grado di rilevare, rimuovere e correggere modifiche dannose o accidentali nei dati di addestramento, ottimizzazione o valutazione? 
      • Hai un inventario completo di tutti i modelli, i set di dati (per addestramento, ottimizzazione o valutazione) e gli artefatti ML correlati (ad esempio il codice)? 
      • Disponi di controlli di accesso efficaci su tutti i modelli, set di dati e artefatti ML correlati per ridurre al minimo, rilevare e prevenire la lettura o la copia non autorizzata? 
      • Sei in grado di garantire che tutti i dati, i modelli e il codice utilizzati per addestrare, ottimizzare o valutare i modelli non possano essere manomessi senza essere rilevati durante lo sviluppo e il deployment del modello?
      • I framework, le librerie, i sistemi software e i componenti hardware utilizzati nello sviluppo e nella distribuzione dei modelli sono analizzati e protetti contro le vulnerabilità di sicurezza?
      Fai l'autovalutazione del rischio SAIF

        Denial of ML service (DoS)

        La sicurezza è un elemento fondamentale di Google Cloud e adottiamo un approccio di difesa in profondità. Nell'ambito delle nostre misure efficaci, abbiamo solide capacità di protezione contro interruzioni del servizio come gli attacchi distributed denial of service (DDoS). Forniamo anche controlli aggiuntivi che i clienti possono utilizzare per proteggersi da questi attacchi DDoS e a livello di applicazione tramite Cloud Armor.

        La nostra soluzione integrata di sicurezza e gestione dei rischi, Security Command Center, protegge le applicazioni Vertex AI con controlli di prevenzione e rilevamento. Ciò include la risposta agli eventi di sicurezza di Vertex AI e la simulazione del percorso di attacco per imitare il modo in cui un malintenzionato reale potrebbe accedere e compromettere i carichi di lavoro di Vertex AI.   

        Per le applicazioni di AI, i clienti possono anche utilizzare Model Armor per ispezionare, instradare e proteggere i prompt e le risposte del foundation model. Può aiutare i clienti a mitigare i rischi come prompt injection, jailbreak, contenuti tossici ed esfiltrazione di dati sensibili. Model Armor si integrerà con i prodotti di Google Cloud, tra cui Vertex AI. Se vuoi saperne di più sull'accesso in anteprima a Model Armor, puoi registrarti qui o guardare il nostro video on demand.


          La sicurezza è un elemento fondamentale di Google Cloud e adottiamo un approccio di difesa in profondità. Nell'ambito delle nostre misure efficaci, abbiamo solide capacità di protezione contro interruzioni del servizio come gli attacchi distributed denial of service (DDoS). Forniamo anche controlli aggiuntivi che i clienti possono utilizzare per proteggersi da questi attacchi DDoS e a livello di applicazione tramite Cloud Armor.

          La nostra soluzione integrata di sicurezza e gestione dei rischi, Security Command Center, protegge le applicazioni Vertex AI con controlli di prevenzione e rilevamento. Ciò include la risposta agli eventi di sicurezza di Vertex AI e la simulazione del percorso di attacco per imitare il modo in cui un malintenzionato reale potrebbe accedere e compromettere i carichi di lavoro di Vertex AI.   

          Per le applicazioni di AI, i clienti possono anche utilizzare Model Armor per ispezionare, instradare e proteggere i prompt e le risposte del foundation model. Può aiutare i clienti a mitigare i rischi come prompt injection, jailbreak, contenuti tossici ed esfiltrazione di dati sensibili. Model Armor si integrerà con i prodotti di Google Cloud, tra cui Vertex AI. Se vuoi saperne di più sull'accesso in anteprima a Model Armor, puoi registrarti qui o guardare il nostro video on demand.


            Hai bisogno di ulteriore assistenza per affrontare rischi legati all'AI come la negazione del servizio di ML e il reverse engineering del modello?

            Collabora con gli esperti Mandiant per sfruttare l'AI in modo sicuro.

            • Red Teaming per l'AI: convalida le difese che proteggono i sistemi di AI e valuta la tua capacità di rilevare e rispondere a un attacco attivo che coinvolge i sistemi di AI.
            • Garantire la sicurezza dell'uso dell'AI: valuta l'architettura, le difese dei dati e le applicazioni create su modelli di AI e sviluppa modelli di minaccia utilizzando i framework di sicurezza.

            Contatta gli esperti di sicurezza di Mandiant


            Vuoi sapere a quali domande del questionario di autovalutazione del rischio SAIF si riferisce questa categoria di rischio?

            • Proteggi le tue applicazioni e i tuoi modelli di AI generativa da query dannose su larga scala provenienti da account utente, dispositivi o tramite API?
            Fai l'autovalutazione del rischio SAIF

              Rafforza la tua postura di sicurezza AI con Google Cloud

              Stai cercando di capire cosa rende unica la protezione dell'AI? Scopri le differenze di sicurezza tra l'AI e lo sviluppo software tradizionale.

              Vuoi iniziare a parlare di AI con la tua organizzazione? Inizia oggi stesso con sette domande chiave che i CISO dovrebbero porsi e a cui rispondere per utilizzare l'AI in modo sicuro e sfruttare i suoi vantaggi per la sicurezza.

              AI generativa, privacy e Google Cloud: sei pronto ad affrontare i componenti dei dati di AI? Scopri di più sull'approccio di Google Cloud alla privacy e alla protezione dei dati durante lo sviluppo di servizi di AI generativa.

              Google Cloud