Utilizzare l'IA in modo sicuro e responsabile

Last reviewed 2025-02-05 UTC

Questo principio del pilastro della sicurezza del Google Cloud Well-Architected Framework fornisce consigli per aiutarti a proteggere i tuoi sistemi di IA. Questi consigli sono in linea con il Secure AI Framework (SAIF) di Google, che fornisce un approccio pratico per affrontare i problemi di sicurezza e rischio dei sistemi di IA. SAIF è un framework concettuale che mira a fornire standard di settore per lo sviluppo e l'implementazione dell'IA in modo responsabile.

Panoramica dei principi

Per contribuire a garantire che i tuoi sistemi di IA soddisfino i requisiti di sicurezza, privacy e conformità, devi adottare una strategia olistica che inizi con la progettazione iniziale e si estenda al deployment e alle operazioni. Puoi implementare questa strategia olistica applicando i sei elementi chiave del SAIF.

Google utilizza l'IA per migliorare le misure di sicurezza, ad esempio identificare le minacce, automatizzare le attività di sicurezza e migliorare le funzionalità di rilevamento, mantenendo i responsabili al corrente per le decisioni critiche.

Google punta su un approccio collaborativo per migliorare la sicurezza dell'IA. Questo approccio prevede la collaborazione con clienti, settori e governi per migliorare le linee guida SAIF e offrire risorse pratiche e utili.

I consigli per implementare questo principio sono raggruppati nelle seguenti sezioni:

Consigli per utilizzare l'IA in modo sicuro

Per utilizzare l'IA in modo sicuro, sono necessari sia i controlli di sicurezza di base sia quelli specifici per l'IA. Questa sezione fornisce una panoramica dei consigli per garantire che i tuoi implementazioni di IA e ML soddisfino i requisiti di sicurezza, privacy e conformità della tua organizzazione. Per una panoramica dei principi e dei consigli di architettura specifici per i workload di IA e ML in Google Cloud, consulta la prospettiva IA e ML nel framework Well-Architected.

Definisci obiettivi e requisiti chiari per l'utilizzo dell'IA

Questo consiglio è pertinente per le seguenti aree di interesse:

  • Governance, rischio e conformità del cloud
  • Sicurezza di AI e ML

Questo consiglio è in linea con l'elemento SAIF relativo alla contestualizzazione dei rischi dei sistemi di IA nei processi aziendali circostanti. Quando progetti e sviluppi sistemi di IA, è importante comprendere i tuoi obiettivi, i rischi e i requisiti di conformità specifici dell'attività.

Mantieni i dati al sicuro ed evita la perdita o la gestione errata

Questo consiglio è pertinente per le seguenti aree di interesse:

  • Sicurezza dell'infrastruttura
  • Gestione di identità e accessi
  • Sicurezza dei dati
  • Sicurezza delle applicazioni
  • Sicurezza di AI e ML

Questo consiglio è in linea con i seguenti elementi SAIF:

  • Adotta solide basi di sicurezza anche nell'ecosistema IA. Questo elemento include la raccolta, lo stoccaggio, il controllo dell'accesso e la protezione dai dati dannosi.
  • Contestualizza i rischi dei sistemi di IA. Metti in evidenza la sicurezza dei dati per supportare gli scopi commerciali e la conformità.

Mantieni le pipeline di AI sicure e resistenti alle manomissioni

Questo consiglio è pertinente per le seguenti aree di interesse:

  • Sicurezza dell'infrastruttura
  • Gestione di identità e accessi
  • Sicurezza dei dati
  • Sicurezza delle applicazioni
  • Sicurezza di AI e ML

Questo consiglio è in linea con i seguenti elementi SAIF:

  • Adotta solide basi di sicurezza anche nell'ecosistema IA. Come elemento chiave per creare un sistema di IA sicuro, proteggi gli elementi del codice e del modello.
  • Adatta i controlli per cicli di feedback più rapidi. Poiché sono importanti per la mitigazione e la risposta agli incidenti, monitora le risorse e le esecuzioni della pipeline.

Esegui il deployment delle app su sistemi sicuri utilizzando strumenti e elementi sicuri

Questo consiglio è pertinente per le seguenti aree di interesse:

  • Sicurezza dell'infrastruttura
  • Gestione di identità e accessi
  • Sicurezza dei dati
  • Sicurezza delle applicazioni
  • Sicurezza di AI e ML

L'utilizzo di sistemi sicuri e di strumenti e elementi convalidati nelle applicazioni basate sull'IA è in linea con l'elemento SAIF relativo all'espansione di solide basi di sicurezza nell'ecosistema e nella catena di approvvigionamento dell'IA. Questo consiglio può essere seguito tramite i seguenti passaggi:

Proteggere e monitorare gli input

Questo consiglio è pertinente per le seguenti aree di interesse:

  • Logging, controllo e monitoraggio
  • Operazioni di sicurezza
  • Sicurezza di AI e ML

Questo consiglio è in linea con l'elemento SAIF relativo all'estensione del rilevamento e della risposta per includere l'IA nell'universo delle minacce di un'organizzazione. Per evitare problemi, è fondamentale gestire i prompt per i sistemi di IA generativa, monitorare gli input e controllare l'accesso degli utenti.

Consigli per la governance dell'IA

Tutti i consigli in questa sezione sono pertinenti alla seguente area di interesse: governance, rischio e conformità del cloud.

Google Cloud offre un solido insieme di strumenti e servizi che puoi utilizzare per creare sistemi di IA responsabili ed etici. Offriamo inoltre un framework di norme, procedure e considerazioni etiche che possono guidare lo sviluppo, l'implementazione e l'utilizzo dei sistemi di IA.

Come indicato nei nostri consigli, l'approccio di Google alla governance dell'IA si basa sui seguenti principi:

  • Equità
  • Trasparenza
  • Responsabilità
  • Privacy
  • Sicurezza

Utilizzare gli indicatori di equità

Vertex AI può rilevare i bias durante la raccolta dei dati o la procedura di valutazione post-addestramento. Vertex AI fornisce metriche di valutazione dei modelli come bias dei dati e bias del modello per aiutarti a valutare la presenza di bias nel modello.

Queste metriche sono correlate all'equità in diverse categorie, come etnia, genere e classe. Tuttavia, interpretare le deviazioni statistiche non è un compito semplice, perché le differenze tra le categorie potrebbero non essere il risultato di pregiudizi o un indicatore di danni.

Utilizzo di Vertex Explainable AI

Per capire in che modo i modelli di IA prendono decisioni, utilizza Vertex Explainable AI. Questa funzionalità ti aiuta a identificare potenziali bias che potrebbero essere nascosti nella logica del modello.

Questa funzionalità di spiegabilità è integrata con BigQuery ML e Vertex AI, che forniscono spiegazioni basate su caratteristiche. Puoi eseguire l'esplicabilità in BigQuery ML o registrare il tuo modello in Vertex AI ed eseguire l'esplicabilità in Vertex AI.

Monitora la derivazione dei dati

Monitora l'origine e la trasformazione dei dati utilizzati nei tuoi sistemi di IA. Questo monitoraggio ti aiuta a comprendere il percorso dei dati e a identificare potenziali fonti di bias o errori.

La derivazione dei dati è una funzionalità di Dataplex che consente di monitorare il modo in cui i dati vengono trasferiti nei sistemi: da dove provengono, dove vengono inviati e a quali trasformazioni sono sottoposti.

Stabilire la responsabilità

Stabilisci responsabilità chiare per lo sviluppo, l'implementazione e i risultati dei tuoi sistemi di IA.

Utilizza Cloud Logging per registrare gli eventi chiave e le decisioni prese dai tuoi sistemi di IA. I log forniscono una traccia di controllo per aiutarti a comprendere il rendimento del sistema e identificare le aree di miglioramento.

Utilizza Error Reporting per analizzare sistematicamente gli errori commessi dai sistemi di IA. Questa analisi può rivelare schemi che indicano bias sottostanti o aree in cui il modello deve essere ulteriormente perfezionato.

Implementare la privacy differenziale

Durante l'addestramento del modello, aggiungi rumore ai dati per rendere difficile l'identificazione dei singoli punti dati, ma consenti comunque al modello di apprendere in modo efficace. Con SQL in BigQuery, puoi trasformare i risultati di una query con aggregazioni con privacy differenziale.