Gemini per Google Cloud e AI responsabile

Questo documento descrive come Gemini è progettato alla luce delle funzionalità, dei limiti e dei rischi associati all'AI generativa.

Capacità e rischi degli LLM

I modelli linguistici di grandi dimensioni (LLM) possono eseguire molte attività utili come le seguenti:

  • Lingua di traduzione.
  • Riassumi il testo.
  • Generare codice e scrittura creativa.
  • Sfrutta la potenza di chatbot e assistenti virtuali.
  • Integra i motori di ricerca e i sistemi di suggerimenti.

Allo stesso tempo, l'evoluzione delle capacità tecniche degli LLM crea un potenziale di applicazione errata, uso improprio e conseguenze indesiderate o impreviste.

Gli LLM possono generare output non previsti, tra cui testi offensivi, insensibili o di fatto errati. Gli LLM sono incredibilmente versatili, pertanto può essere difficile prevedere esattamente quali tipi di risultati non previsti o imprevisti potrebbero produrre.

Dati questi rischi e complessità, Gemini per Google Cloud è progettato seguendo i principi dell'AI di Google. Tuttavia, è importante che gli utenti comprendano alcune delle limitazioni di Gemini affinché Google Cloud funzioni in modo sicuro e responsabile.

Limitazioni di Gemini per Google Cloud

Alcune delle limitazioni che potresti riscontrare utilizzando Gemini per Google Cloud includono (a titolo esemplificativo):

  • Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali non ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nell'output di Gemini, ad esempio sovraconfidenza del modello, interpretazione errata del contesto o output inappropriati.

  • Modelli di allucinazioni, grounding e oggettività. Gemini per Google Cloud potrebbe non disporre di principi di base e oggettivi relativamente a conoscenze del mondo reale, proprietà fisiche o comprensione accurata. Questa limitazione può portare a allucinazioni modello, in cui Gemini potrebbe generare output suoni plausibili, ma di fatto errati, irrilevanti, inappropriati o senza senso. Le allucinazioni possono includere anche la creazione di link a pagine web che non esistono o non sono mai esistite. Per maggiori informazioni, consulta Scrivere prompt migliori per Gemini per Google Cloud.

  • Qualità e ottimizzazione dei dati. La qualità, l'accuratezza e il bias dei dati dei prompt inseriti in Gemini possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono prompt imprecisi o errati, Gemini potrebbe restituire risposte non ottimali o false.

  • Amplificazione del bias per bias. I modelli linguistici possono inavvertitamente amplificare i pregiudizi esistenti nei dati di addestramento, portando a output che potrebbero rafforzare ulteriormente i pregiudizi sociali e un trattamento disuguale di determinati gruppi.

  • Qualità della lingua. Sebbene Gemini produca capacità multilingue impressionanti nei benchmark rispetto ai quali abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in inglese americano.

    I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione del testo potrebbe non essere così efficace per alcuni dialetti o varietà di lingue perché sono sottorappresentati nei dati di addestramento. Il rendimento potrebbe essere inferiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con meno rappresentazione.

  • Benchmark e sottogruppi di equità. Le analisi di equità di Google Research su Gemini non forniscono un quadro esaustivo dei vari rischi potenziali. Ad esempio, ci concentriamo sui pregiudizi lungo gli assi di genere, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati in lingua inglese americana e sugli output dei modelli.

  • Competenze in un dominio limitato. Gemini è stato addestrato sulla tecnologia Google Cloud, ma potrebbe non disporre della conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, portando a informazioni superficiali o errate.

    Quando utilizzi il riquadro Gemini nella console Google Cloud, Gemini non è sensibile al contesto del tuo ambiente specifico, non può rispondere a domande come "Quando è stata l'ultima volta che ho creato una VM?"

    In alcuni casi, Gemini invia un segmento specifico del contesto al modello per ricevere una risposta specifica per contesto, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi nella pagina del servizio Error Reporting.

Filtro di sicurezza e tossicità Gemini

Gemini per i prompt e le risposte di Google Cloud vengono controllati in base a un elenco completo di attributi di sicurezza applicabili a ogni caso d'uso. Questi attributi di sicurezza hanno lo scopo di filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output viene considerato dannoso, la risposta verrà bloccata.

Passaggi successivi