Gemini per Google Cloud e IA responsabile

Questo documento descrive la progettazione di Gemini per Google Cloud alla luce degli capacità, limitazioni e rischi associati all'AI generativa.

Funzionalità e rischi dei modelli linguistici di grandi dimensioni

I modelli linguistici di grandi dimensioni (LLM) possono svolgere molte attività utili, ad esempio:

  • Lingua di traduzione.
  • Riassumi il testo.
  • Generazione di codice e scrittura creativa.
  • chatbot e assistenti virtuali.
  • Integrare i motori di ricerca e i sistemi di generazione di suggerimenti.

Allo stesso tempo, le capacità tecniche in evoluzione degli LLM creano potenziali applicazioni errate, usi impropri e conseguenze indesiderate o impreviste.

gli LLM possono generare output inaspettati, tra cui testo offensivo, insensibile o di fatto errata. Poiché gli LLM sono incredibilmente versatili, può essere difficile prevedere esattamente quali tipi di eventi gli output che potrebbero produrre.

Dati questi rischi e queste complessità, Gemini per Google Cloud è progettato tenendo conto dei principi dell'IA di Google. Tuttavia, è importante che gli utenti comprendano alcune delle limitazioni Gemini per Google Cloud per lavorare in modo sicuro e responsabile.

Limitazioni di Gemini per Google Cloud

Di seguito sono riportate alcune limitazioni che potresti riscontrare utilizzando Gemini per Google Cloud:

  • Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nell'output dei modelli Gemini, ad esempio eccessiva sicurezza del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività. I modelli Gemini potrebbero non essere basati su conoscenze del mondo reale, proprietà fisiche o comprensione accurata. Questa limitazione può portare alla generazione allucinazioni, per le quali Gemini per Google Cloud potrebbe generare output che sembrano plausibili ma di fatto errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono anche includere la creazione di link a pagine web che non esistono e non sono mai esistite. Per maggiori informazioni, consulta Scrivere prompt migliori per Gemini per Google Cloud.

  • Qualità e ottimizzazione dei dati. Qualità, accuratezza e bias del prompt i dati inseriti in Gemini per Google Cloud prodotti possono avere un impatto significativo sul rendimento. Se gli utenti inseriscono prompt imprecisi o errati, Gemini per Google Cloud potrebbe restituire risposte non ottimali o false.

  • Amplificazione del bias. I modelli linguistici possono inavvertitamente amplificare pregiudizi nei dati di addestramento, portando a output che potrebbero rafforzare ulteriormente sociali e disparità di trattamento di alcuni gruppi.

  • Qualità della lingua. Mentre Gemini per Google Cloud offre capacità multilingue impressionanti sui benchmark che valutata in base alla maggior parte dei nostri benchmark (inclusi tutti i equità valutate) sono in inglese americano.

    I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione di testo potrebbe non essere così efficace per alcuni dialetti o lingue diverse perché sono sottorappresentate nei dati di addestramento. Il rendimento potrebbe essere peggiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con una minore rappresentazione.

  • Benchmark e sottogruppi per l'equità. Le analisi di equità dei modelli Gemini di Google Research non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias in base a genere, gruppo etnico etnicità e assi religiosi, ma eseguire l'analisi solo sui dati Output dei dati e del modello in lingua inglese.

  • Esperienza limitata nel dominio. I modelli Gemini sono stati addestrati tecnologia Google Cloud, ma potrebbe non disporre di conoscenze approfondite necessaria per fornire risposte accurate e dettagliate su su argomenti specializzati o tecnici che portano a errori superficiali o informazioni.

    Quando utilizzi il riquadro Gemini nella console Google Cloud, Gemini non è sensibile al contesto del tuo ambiente specifico, non può rispondere a domande come "Quando è stata l'ultima volta che ho creato una VM?"

    In alcuni casi, Gemini per Google Cloud invia un segmento specifico del contesto al modello per ricevere una risposta specifica per il contesto, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi nella pagina del servizio di segnalazione degli errori.

Filtri di sicurezza e tossicità di Gemini

I prompt e le risposte di Gemini per Google Cloud vengono controllati in base a un elenco completo di attributi di sicurezza, come applicabile per ogni caso d'uso. Lo scopo di questi attributi di sicurezza è filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output è considerato dannoso, la risposta verrà bloccata.

Passaggi successivi