AI responsabile

I modelli linguistici di grandi dimensioni (LLM) possono tradurre lingue, riassumere testi, generare scrittura creativa, generare codice, alimentare chatbot e assistenti virtuali e integrare motori di ricerca e sistemi di raccomandazione. Allo stesso tempo, essendo una tecnologia ancora in fase iniziale, le sue capacità e i suoi utilizzi in evoluzione generano un potenziale di applicazioni errate, usi impropri e conseguenze non volute o impreviste. I modelli linguistici di grandi dimensioni possono generare output inaspettati, tra cui testi offensivi, insensibili o oggettivamente errati.

Inoltre, l'incredibile versatilità degli LLM rende difficile prevedere esattamente quali tipi di output indesiderati o imprevisti potrebbero produrre. Considerati questi rischi e queste complessità, le API Vertex AI per l'AI generativa sono progettate tenendo conto dei principi di Google AI. Tuttavia, è importante che gli sviluppatori comprendano e testino i propri modelli per eseguire il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di un filtro dei contenuti integrato e le nostre API di AI generativa hanno un sistema di valutazione degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e definire le soglie di confidenza più adatte al loro caso d'uso e alla loro attività. Per saperne di più, consulta la sezione Filtri e attributi di sicurezza.

Quando le nostre API generative vengono integrate nel tuo caso d'uso e contesto unici, potrebbero essere necessarie ulteriori considerazioni sull'AI responsabile e limitazioni. Invitiamo i clienti a promuovere l'equità, l'interpretabilità, la privacy e la sicurezza pratiche consigliate.

Filtri di sicurezza e attributi

Per scoprire come utilizzare filtri e attributi di sicurezza per un'API, consulta API Gemini in Vertex AI.

Limitazioni del modello

Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (ma non sono limitate a):

  • Casi limite: i casi limite si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nelle prestazioni del modello, come eccessiva sicurezza del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni, fondatezza e oggettività del modello: i modelli di AI generativa possono mancare di oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questa limitazione può portare ad allucinazioni del modello, ovvero a casi in cui può generare output che sembrano plausibili ma che sono errati, irrilevanti, inappropriati o privi di senso. Per ridurre questa possibilità, puoi basare i modelli sui tuoi dati specifici. Per saperne di più sul grounding in Vertex AI, consulta la Panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e la distorsione del prompt o dei dati inseriti in un modello possono influire in modo significativo sulle sue prestazioni. Se gli utenti inseriscono dati o prompt imprecisi o errati, il modello può avere prestazioni non ottimali o generare output falsi.

  • Amplificazione dei bias: i modelli di AI generativa possono amplificare inavvertitamente i bias esistenti nei dati di addestramento, generando output che possono rafforzare ulteriormente i pregiudizi sociali e il trattamento iniquo di determinati gruppi.

  • Qualità della lingua: sebbene i modelli offrano capacità multilingue impressionanti nei benchmark che abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni di equità) sono in inglese. Per ulteriori informazioni, consulta il blog di Google Research.

    • I modelli di AI generativa possono fornire una qualità del servizio non uniforme a diversi utenti. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o per le varietà della lingua inglese con una rappresentazione minore.
  • Benchmark e sottogruppi di equità: le analisi di equità di Google Research dei nostri modelli di AI generativa non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, razza e religione, ma eseguiamo l'analisi solo sui dati e sugli output del modello in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Competenze di dominio limitate: i modelli di AI generativa potrebbero non avere la profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, il che potrebbe portare a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati in base a dati specifici del dominio e deve essere presente una supervisione umana significativa in contesti con il potenziale di influire in modo sostanziale sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli di AI generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a prestazioni del modello scadenti. Sebbene i nostri modelli siano progettati per gestire un'ampia gamma di formati di testo, le loro prestazioni possono essere influenzate se i dati di input hanno una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche considerare altri rischi specifici per il tuo caso d'uso, i tuoi utenti e il contesto aziendale oltre alle misure di salvaguardia tecniche integrate.

Ti consigliamo di procedere nel seguente modo:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Esegui test di sicurezza appropriati al tuo caso d'uso.
  3. Se necessario, configura i filtri di sicurezza.
  4. Richiedi il feedback degli utenti e monitora i contenuti.

Segnala abuso

Puoi segnalare un sospetto abuso del Servizio o qualsiasi output generato che contenga materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnala un sospetto abuso su Google Cloud.

Risorse aggiuntive