Best practice per la sicurezza

I modelli linguistici di grandi dimensioni (LLM) possono tradurre il linguaggio, riassumere testi, generare scrittura creativa, generare codice, potenziare i chatbot e gli assistenti virtuali e integrare i motori di ricerca e i sistemi di suggerimenti. Allo stesso tempo, come tecnologia in fase iniziale, le sue funzionalità e utilizzi in evoluzione possono creare potenziali applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. I modelli linguistici di grandi dimensioni possono generare output non previsti, inclusi testi offensivi, insensibili o di fatto errati.

Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile prevedere esattamente quali tipi di output involontari o imprevisti potrebbero produrre. Dati questi rischi e complessità, le API generative di Vertex AI sono progettate tenendo a mente i principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testano i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di filtri dei contenuti integrati e le nostre API di IA generativa hanno punteggi degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e a definire soglie di confidenza adatte al loro caso d'uso e alla loro attività. Per scoprire di più, consulta la sezione Filtri e attributi di sicurezza.

Quando le nostre API generative sono integrate nel tuo caso d'uso unico e nel tuo contesto, potrebbero essere necessarie ulteriori considerazioni e limitazioni per l'AI responsabile. Incoraggiamo i clienti a promuovere equità, interpretabilità, privacy e sicurezza pratiche consigliate.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta le seguenti pagine:

Limitazioni del modello

Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (a titolo esemplificativo):

  • Casi limite: si riferiscono a situazioni insolite, rare o eccezionali non ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nelle prestazioni del modello, ad esempio sovraconfidenza del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività: i modelli di IA generativa possono non essere oggettivi nelle conoscenze del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questo limite può portare alle allucinazioni nei modelli, che fanno riferimento ai casi in cui può generare output dal suono plausibile, ma di fatto errati, irrilevanti, inappropriati o privi di senso. Per ridurre questa possibilità, puoi basare i modelli sui tuoi dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta la panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e il bias del prompt o dell'input di dati in un modello possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono prompt o dati imprecisi o errati, il modello può avere prestazioni non ottimali o output del modello falsi.

  • Amplificazione dei bias: i modelli di IA generativa possono inavvertitamente amplificare i bias esistenti nei dati di addestramento, portando a output che possono ulteriormente rafforzare i pregiudizi sociali e un trattamento diseguale di determinati gruppi.

  • Qualità della lingua: sebbene i modelli offrano funzionalità multilingue impressionanti nei benchmark rispetto ai quali abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

    • I modelli di IA generativa possono fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione del testo potrebbe non essere così efficace per alcuni dialetti o varietà linguistiche a causa di una sottorappresentazione nei dati di addestramento. Il rendimento può essere inferiore per le lingue diverse dall'inglese o per le varianti in lingua inglese con meno rappresentazione.
  • Benchmark e sottogruppi di equità: le analisi dell'equità dei nostri modelli di AI generativa non forniscono una descrizione esaustiva dei vari rischi potenziali. Ad esempio, ci concentriamo sui pregiudizi lungo gli assi di genere, gruppo etnico, etnia e religione, ma eseguiamo l'analisi solo sui dati e sugli output dei modelli in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Competenze in domini limitati: i modelli di IA generativa possono non disporre della profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti tecnici o altamente specializzati, portando a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati su dati specifici del dominio e deve esistere una supervisione umana significativa in contesti con il potenziale di influire materialmente sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e di output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a prestazioni del modello scadenti. Sebbene i nostri modelli siano progettati per gestire un'ampia gamma di formati di testo, le prestazioni possono risentirne se i dati di input hanno una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, oltre a misure di salvaguardia tecniche integrate, è importante considerare anche altri rischi specifici del caso d'uso, degli utenti e del contesto aziendale.

Ti consigliamo di procedere nel seguente modo:

  1. Valutare i rischi per la sicurezza della tua applicazione.
  2. Valuta la possibilità di apportare modifiche per mitigare i rischi per la sicurezza.
  3. Esegui test di sicurezza appropriati al tuo caso d'uso.
  4. Sollecitare il feedback degli utenti e monitorare i contenuti.

Segnalare un abuso

È possibile segnalare presunti abusi del Servizio o qualsiasi output generato contenente materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnalare presunti abusi su Google Cloud.

Risorse aggiuntive