Questo documento descrive come Gemini per Google Cloud è progettato in base alle funzionalità, alle limitazioni e ai rischi associati all'IA generativa.
Funzionalità e rischi dei modelli linguistici di grandi dimensioni
I modelli linguistici di grandi dimensioni (LLM) possono svolgere molte attività utili, ad esempio:
- Lingua di traduzione.
- Riassumere il testo.
- Genera codice e scrittura creativa.
- Migliora chatbot e assistenti virtuali.
- Integrare i motori di ricerca e i sistemi di suggerimenti.
Allo stesso tempo, le capacità tecniche in evoluzione degli LLM creano il potenziale per applicazioni errate, usi impropri e conseguenze non volute o impreviste.
Gli LLM possono generare output inaspettati, inclusi testi offensivi, insensibili o errati. Poiché gli LLM sono incredibilmente versatili, può essere difficile prevedere esattamente quali tipi di output indesiderati o imprevisti potrebbero produrre.
Dati questi rischi e queste complessità, Gemini per Google Cloud è stato progettato in base ai principi dell'IA di Google. Tuttavia, è importante che gli utenti comprendano alcune delle limitazioni di Gemini per lavorare in modo sicuro e responsabile. Google Cloud
Limitazioni di Gemini per Google Cloud
Alcune delle limitazioni che potresti riscontrare utilizzando Gemini per Google Cloud includono (a titolo esemplificativo):
Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nell'output dei modelli Gemini, ad esempio eccessiva sicurezza del modello, interpretazione errata del contesto o output inappropriati.
Modella allucinazioni, grounding e realtà. I modelli Gemini potrebbero non essere basati su conoscenze del mondo reale, proprietà fisiche o comprensione accurata. Questa limitazione può portare a "allucinazioni" del modello, in cui Gemini per Google Cloud potrebbe generare output apparentemente plausibili, ma di fatto errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono anche includere la creazione di link a pagine web che non esistono e non sono mai esistite. Per maggiori informazioni, consulta Scrivere prompt migliori per Gemini per Google Cloud.
Qualità e ottimizzazione dei dati. La qualità, l'accuratezza e il pregiudizio dei dati dei prompt inseriti in Gemini per i prodotti Google Cloudpossono avere un impatto significativo sul rendimento. Se gli utenti inseriscono prompt imprecisi o errati, Gemini for Google Cloud potrebbe restituire risposte non ottimali o false.
Amplificazione del bias. I modelli linguistici possono amplificare inavvertitamente i bias esistenti nei dati di addestramento, generando output che potrebbero rafforzare ulteriormente i pregiudizi sociali e il trattamento ineguale di determinati gruppi.
Qualità della lingua. Sebbene Gemini per Google Cloud offra impressionanti funzionalità multilingue sui benchmark rispetto ai quali è stato valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in inglese americano.
I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varianti linguistiche perché sono sottorappresentati nei dati di addestramento. Il rendimento potrebbe essere peggiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con una minore rappresentazione.
Benchmark e sottogruppi di equità. Le analisi di equità dei modelli Gemini di Google Research non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati e sulle uscite del modello in lingua inglese americano.
Esperienza limitata nel dominio. I modelli di Gemini sono stati addestrati sulla tecnologia Google Cloud , ma potrebbero non avere la profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, il che porta a informazioni superficiali o errate.
Quando utilizzi il riquadro Gemini nella console Google Cloud, Gemini non è consapevole del contesto del tuo ambiente specifico, quindi non può rispondere a domande come "Quando ho creato l'ultima volta una VM?"
In alcuni casi, Gemini for Google Cloud invia un segmento specifico del contesto al modello per ricevere una risposta specifica per il contesto, ad esempio quando fai clic sul pulsante Suggerimenti per la risoluzione dei problemi nella pagina del servizio di segnalazione degli errori.
Filtri di sicurezza e tossicità di Gemini
I prompt e le risposte di Gemini vengono controllati in base a un elenco completo di attributi di sicurezza, a seconda del caso d'uso. Google Cloud Questi attributi di sicurezza hanno lo scopo di filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output è considerato dannoso, la risposta verrà bloccata.
Passaggi successivi
- Scopri di più su come Gemini cita le fonti quando ti aiuta a generare codice.