Duet AI in Google Cloud e l&#AI responsabile

Questo documento descrive come Duet AI è progettato alla luce di funzionalità, limitazioni e rischi associati all'IA generativa.

Capacità e rischi degli LLM

I modelli linguistici di grandi dimensioni (LLM) possono eseguire molte attività utili come le seguenti:

  • Lingua di traduzione.
  • Riassumi il testo.
  • Generare codice e scrittura creativa.
  • Sfrutta la potenza di chatbot e assistenti virtuali.
  • Integra i motori di ricerca e i sistemi di suggerimenti.

Allo stesso tempo, l'evoluzione delle capacità tecniche degli LLM crea un potenziale di applicazione errata, uso improprio e conseguenze indesiderate o impreviste.

Gli LLM possono generare output non previsti, tra cui testi offensivi, insensibili o di fatto errati. Gli LLM sono incredibilmente versatili, pertanto può essere difficile prevedere esattamente quali tipi di risultati non previsti o imprevisti potrebbero produrre.

Dati questi rischi e complessità, Duet AI in Google Cloud è progettato tenendo conto dei principi dell'IA di Google. Tuttavia, è importante che gli utenti comprendano alcune delle limitazioni della tecnologia per lavorare in modo sicuro e responsabile.

Limitazioni di Duet AI in Google Cloud

Alcune delle limitazioni che potresti riscontrare utilizzando Duet AI in Google Cloud includono (a titolo esemplificativo):

  • Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali non ben rappresentate nei dati di addestramento. Questi casi possono causare limitazioni nell'output di Duet AI, ad esempio sovraaffidabilità del modello, interpretazione errata del contesto o output inappropriati.

  • Modelli di allucinazioni, grounding e oggettività. Duet AI in Google Cloud potrebbe mancare di fondamenta e oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questa limitazione può causare allucinazioni modello, in cui Duet AI potrebbe generare output dal suono plausibile, ma di fatto errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono includere anche la creazione di link a pagine web che non esistono o non sono mai esistite. Per maggiori informazioni, consulta Scrivere prompt migliori per Duet AI.

    Per ridurre al minimo le allucinazioni, utilizziamo diversi approcci come fornire grandi quantità di dati di alta qualità per addestrare e ottimizzare il modello, nonché tecniche di ingegneria del prompt come la generazione aumentata di recupero.

  • Qualità e ottimizzazione dei dati. La qualità, l'accuratezza e il bias dei dati dei prompt inseriti in Duet AI possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono prompt imprecisi o errati, Duet AI potrebbe restituire risposte non ottimali o false.

  • Amplificazione del bias per bias. I modelli linguistici possono inavvertitamente amplificare i pregiudizi esistenti nei dati di addestramento, portando a output che potrebbero rafforzare ulteriormente i pregiudizi sociali e un trattamento disuguale di determinati gruppi.

  • Qualità della lingua. Sebbene Duet AI produca impressionanti funzionalità multilingue nei benchmark rispetto ai quali abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in inglese americano.

    I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione del testo potrebbe non essere così efficace per alcuni dialetti o varietà di lingue perché sono sottorappresentati nei dati di addestramento. Il rendimento potrebbe essere inferiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con meno rappresentazione.

  • Benchmark e sottogruppi di equità. Le analisi dell'equità di Google Research su Duet AI non forniscono un quadro esaustivo dei vari rischi potenziali. Ad esempio, ci concentriamo sui pregiudizi lungo gli assi di genere, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati in lingua inglese americana e sugli output dei modelli.

  • Competenze in un dominio limitato. Duet AI è stato addestrato sulla tecnologia Google Cloud, ma potrebbe non disporre della conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, portando a informazioni superficiali o errate.

    Quando utilizzi il riquadro Duet AI nella console Google Cloud, Duet AI potrebbe non conoscere l'intero contesto di contesto dei tuoi progetti e dell'ambiente specifici, quindi potrebbe non essere in grado di rispondere a domande come "Quando è stata l'ultima volta che ho creato una VM?"

    In alcuni casi, Duet AI invia un segmento specifico del tuo contesto al modello per ricevere una risposta specifica per il contesto, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi nella pagina del servizio Error Reporting.

Filtro di sicurezza e tossicità di Duet AI

Duet AI nei prompt e nelle risposte di Google Cloud vengono controllati in base a un elenco completo di attributi di sicurezza applicabili a ogni caso d'uso. Questi attributi di sicurezza hanno lo scopo di filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output viene considerato dannoso, la risposta verrà bloccata.

Passaggi successivi