Gemini per Google Cloud e AI responsabile

Questo documento descrive la progettazione di Gemini per Google Cloud alla luce degli capacità, limitazioni e rischi associati all'AI generativa.

Funzionalità e rischi dei modelli linguistici di grandi dimensioni

I modelli linguistici di grandi dimensioni (LLM) possono svolgere molte attività utili, come seguenti:

  • Lingua di traduzione.
  • Riassumi il testo.
  • Generazione di codice e scrittura creativa.
  • chatbot e assistenti virtuali.
  • Integra motori di ricerca e sistemi di suggerimenti.

Allo stesso tempo, le capacità tecniche in evoluzione degli LLM creano potenziali applicazioni errate, usi impropri e conseguenze indesiderate o impreviste.

gli LLM possono generare output inaspettati, tra cui testo offensivo, insensibile o di fatto errata. Poiché gli LLM sono incredibilmente versatili, può essere difficile prevedere esattamente quali tipi di eventi gli output che potrebbero produrre.

Dati questi rischi e complessità, Gemini per Google Cloud è progettato con i principi dell'AI di Google in mente. Tuttavia, è importante che gli utenti comprendano alcuni dei limiti Gemini per Google Cloud per lavorare in modo sicuro e responsabile.

Limitazioni di Gemini per Google Cloud

Alcune delle limitazioni che potresti riscontrare utilizzando Gemini per Google Cloud includono, a titolo esemplificativo:

  • Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali non ben rappresentati nei dati di addestramento. Questi casi possono limitazioni nell'output dei modelli Gemini, come fiducia eccessiva, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività. Gemelli di base potrebbero mancare di basi e oggettività nelle conoscenze del mondo reale, proprietà o una comprensione accurata. Questa limitazione può portare alla generazione allucinazioni, per le quali Gemini per Google Cloud potrebbe generare output che sembrano plausibili ma di fatto errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono includere anche creare link a pagine web che non esistono e che non sono mai esistite. Per ulteriori informazioni, vedi Scrivere prompt migliori per Gemini per Google Cloud.

  • Qualità e ottimizzazione dei dati. Qualità, accuratezza e bias del prompt i dati inseriti in Gemini per Google Cloud prodotti possono avere un impatto significativo sul rendimento. Se gli utenti inseriscono prompt imprecisi o errati, Gemini per Google Cloud potrebbero restituire risposte non ottimali o false.

  • Amplificazione del bias. I modelli linguistici possono inavvertitamente amplificare pregiudizi nei dati di addestramento, portando a output che potrebbero rafforzare ulteriormente sociali e disparità di trattamento di alcuni gruppi.

  • Qualità della lingua. Mentre Gemini per Google Cloud offre capacità multilingue impressionanti sui benchmark che valutata in base alla maggior parte dei nostri benchmark (inclusi tutti i equità valutate) sono in inglese americano.

    I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione di testo potrebbe non essere così efficace per alcuni dialetti o lingue diverse perché sono sottorappresentate nei dati di addestramento. Il rendimento potrebbe essere peggiore per le lingue diverse dall'inglese o per la lingua inglese varietà con meno rappresentazione.

  • Benchmark e sottogruppi per l'equità. le analisi sull'equità di Google Research I modelli Gemini non forniscono un account esaustivo dei vari e rischi potenziali. Ad esempio, ci concentriamo sui bias in base a genere, gruppo etnico etnicità e assi religiosi, ma eseguire l'analisi solo sui dati Output dei dati e del modello in lingua inglese.

  • Competenza sui domini limitata. I modelli Gemini sono stati addestrati tecnologia Google Cloud, ma potrebbe non disporre di conoscenze approfondite necessaria per fornire risposte accurate e dettagliate su su argomenti specializzati o tecnici che portano a errori superficiali o informazioni.

    Quando utilizzi il riquadro Gemini nella console Google Cloud, Gemini non è sensibile al contesto del tuo ambiente specifico, non può rispondere a domande come "Quando è stata l'ultima volta che ho creato una VM?"

    In alcuni casi, Gemini per Google Cloud invia una richiesta segmento del tuo contesto al modello per ricevere una risposta risposta, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi. nella pagina del servizio Error Reporting.

Filtro di sicurezza e tossicità di Gemini

I prompt e le risposte di Gemini per Google Cloud vengono controllati confrontandoli con un elenco completo di attributi di sicurezza applicabili a ogni utilizzo per verificare se è così. Questi attributi di sicurezza hanno lo scopo di filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output è considerata dannosa, la risposta verrà bloccata.

Passaggi successivi