Gemini per Google Cloud e l&#AI responsabile

Questo documento descrive come è progettato Gemini per Google Cloud alla luce delle capacità, delle limitazioni e dei rischi associati all'AI generativa.

Funzionalità e rischi dei modelli linguistici di grandi dimensioni

I modelli linguistici di grandi dimensioni (LLM) possono eseguire molte attività utili, tra cui:

  • Lingua di traduzione.
  • Riassumi il testo.
  • Generazione di codice e scrittura creativa.
  • chatbot e assistenti virtuali.
  • Integra motori di ricerca e sistemi di suggerimenti.

Allo stesso tempo, le capacità tecniche in evoluzione degli LLM creano il potenziale di applicazione errata, uso improprio e di conseguenze indesiderate o impreviste.

Gli LLM possono generare output inaspettati, tra cui testo offensivo, insensibile o di fatto errato. Poiché gli LLM sono incredibilmente versatili, può essere difficile prevedere esattamente quali tipi di output non voluti o imprevisti potrebbero produrre.

Dati questi rischi e complessità, Gemini per Google Cloud è progettato pensando ai principi dell'IA di Google. Tuttavia, è importante che gli utenti comprendano alcuni dei limiti di Gemini per consentire a Google Cloud di lavorare in modo sicuro e responsabile.

Limitazioni di Gemini per Google Cloud

Alcune delle limitazioni che potresti riscontrare utilizzando Gemini per Google Cloud includono, a titolo esemplificativo:

  • Casi limite. I casi limite fanno riferimento a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nell'output dei modelli Gemini, come sovraaffidabilità del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività. I modelli Gemini potrebbero essere privi di grounding e oggettività in termini di conoscenza del mondo reale, proprietà fisiche o comprensione accurata. Questa limitazione può portare ad allucinazioni del modello, per le quali Gemini per Google Cloud potrebbe generare output plausibili, ma di fatto errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono anche includere la creazione di link a pagine web che non esistono e che non sono mai esistite. Per maggiori informazioni, consulta Scrivere prompt migliori per Gemini per Google Cloud.

  • Qualità e ottimizzazione dei dati. La qualità, l'accuratezza e i bias dei dati dei prompt inseriti in Gemini per i prodotti Google Cloud possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono richieste imprecise o errate, Gemini per Google Cloud potrebbe restituire risposte non ottimali o false.

  • Amplificazione del bias. I modelli linguistici possono inavvertitamente amplificare i pregiudizi esistenti nei dati di addestramento, portando a output che potrebbero rafforzare ulteriormente i pregiudizi sociali e la disuguaglianza di trattamento di alcuni gruppi.

  • Qualità della lingua. Gemini per Google Cloud offre incredibili funzionalità multilingue rispetto ai benchmark in base ai quali abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in inglese americano.

    I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione di testo potrebbe non essere così efficace per alcuni dialetti o vari tipi di lingue perché sono sottorappresentati nei dati di addestramento. Il rendimento potrebbe essere peggiore per le lingue diverse dall'inglese o per le varietà di lingua inglese con meno rappresentazione.

  • Benchmark e sottogruppi per l'equità. Le analisi dell'equità dei modelli Gemini condotte da Google Research non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati e sugli output dei modelli in lingua inglese americano.

  • Competenza sui domini limitata. I modelli Gemini sono stati addestrati sulla tecnologia Google Cloud, ma potrebbero mancare le conoscenze necessarie per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, con conseguenti informazioni superficiali o errate.

    Quando utilizzi il riquadro Gemini nella console Google Cloud, Gemini non è sensibile al contesto del tuo ambiente specifico, quindi non può rispondere a domande come "Quando è stata l'ultima volta che ho creato una VM?".

    In alcuni casi, Gemini per Google Cloud invia un segmento specifico del tuo contesto al modello per ricevere una risposta specifica del contesto, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi nella pagina del servizio Error Reporting.

Filtro di sicurezza e tossicità di Gemini

I prompt e le risposte di Gemini per Google Cloud vengono controllati in base a un elenco completo di attributi di sicurezza applicabili a ogni caso d'uso. Questi attributi di sicurezza hanno lo scopo di filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output viene considerato dannoso, la risposta viene bloccata.

Passaggi successivi