Best practice per la sicurezza

I modelli linguistici di grandi dimensioni (LLM) sono in grado di tradurre il linguaggio, riassumere testi, generare scrittura creativa, generare codice, alimentare chatbot e assistenti virtuali e integrare motori di ricerca e sistemi di suggerimenti. Allo stesso tempo, in quanto tecnologia in fase iniziale, le sue funzionalità e i suoi utilizzi in continua evoluzione creano potenziali di applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. I modelli linguistici di grandi dimensioni possono generare output inaspettati, tra cui testo offensivo, insensibile o di fatto errato.

Inoltre, l'incredibile versatilità degli LLM è anche il motivo per cui è difficile prevedere con esattezza quali tipi di output non desiderati o imprevisti potrebbero produrre. Dati questi rischi e complessità, le API di IA generativa di Vertex AI sono progettate tenendo in considerazione i principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testano i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di filtri dei contenuti integrati e le nostre API di IA generativa hanno punteggi degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e a definire soglie di confidenza adatte al loro caso d'uso e alla loro attività. Per ulteriori informazioni, consulta la sezione Filtri e attributi di sicurezza.

Quando le nostre API generative sono integrate nel tuo caso d'uso e nel tuo contesto unici, potrebbe essere necessario prendere in considerazione ulteriori considerazioni e limitazioni per l'AI responsabile. Invitiamo i clienti a promuovere le pratiche consigliate relative a correttezza, interpretabilità, privacy e sicurezza.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta le seguenti pagine:

Limitazioni del modello

Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (a titolo esemplificativo):

  • Casi limite: si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nelle prestazioni del modello, come sovraaffidabilità del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività: i modelli di IA generativa possono essere privi di informazioni oggettive, di proprietà fisiche o di comprensione del mondo reale. Questa limitazione può portare ad allucinazioni del modello, che si riferiscono a casi in cui può generare output plausibili ma di fatto errati, irrilevanti, inappropriati o senza senso. Per ridurre questa possibilità, puoi basare i modelli su dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta Panoramica sul grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e il bias del prompt o dell'input dei dati in un modello possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono dati o prompt imprecisi o errati, il modello può avere prestazioni non ottimali o output falsi.

  • Amplificazione dei bias: i modelli di IA generativa possono amplificare inavvertitamente i bias esistenti nei dati di addestramento, generando output che possono rafforzare ulteriormente i pregiudizi sociali e la disuguaglianza di trattamento di alcuni gruppi.

  • Qualità linguistica: i modelli offrono notevoli capacità multilingue nei benchmark confrontati, ma la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

    • I modelli di IA generativa possono fornire servizi di qualità incoerente a utenti diversi. Ad esempio, la generazione di testo potrebbe non essere così efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o per le varietà di lingua inglese con meno rappresentazione.
  • Benchmark e sottogruppi di equità: le analisi dell'equità di Google Research dei nostri modelli di AI generativa non forniscono un account esaustivo dei vari rischi potenziali. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati e sugli output del modello in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Competenza settoriale limitata: i modelli di IA generativa possono non disporre della profondità necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, con conseguenti informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati su dati specifici del dominio ed è necessaria una supervisione umana significativa nei contesti, con il potenziale di influire materialmente sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli di AI generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a scarse prestazioni del modello. Sebbene i nostri modelli siano progettati per gestire un'ampia gamma di formati di testo, le loro prestazioni possono risentirne se i dati di input hanno una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante considerare anche altri rischi specifici per il tuo caso d'uso, gli utenti e il contesto aziendale, oltre alle salvaguardie tecniche integrate.

Ti consigliamo di procedere nel seguente modo:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Valuta la possibilità di apportare modifiche per mitigare i rischi per la sicurezza.
  3. Esegui test di sicurezza appropriati per il tuo caso d'uso.
  4. Sollecitare il feedback degli utenti e monitorare i contenuti.

Segnalare un abuso

Puoi segnalare presunti abusi del Servizio o qualsiasi output generato che contenga materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnala un abuso sospetto su Google Cloud.

Risorse aggiuntive