I modelli linguistici di grandi dimensioni (LLM) possono tradurre la lingua, riassumere il testo, generare scrittura creativa, generare codice, supportare chatbot e assistenti virtuali e integrare motori di ricerca e sistemi di consigli. Allo stesso tempo, come un tecnologia allo stadio iniziale, le sue capacità e i suoi usi in evoluzione creano un potenziale applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. Grande linguistici di grandi dimensioni possono generare output che non ti aspetti, tra cui testo offensivo, insensibile o di fatto errato.
Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile per prevedere esattamente quali tipi di output potrebbero produrre. Dati questi rischi e queste complessità, le API di IA generativa di Vertex AI sono progettate tenendo conto dei principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testino i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio ha un filtro dei contenuti integrato, mentre le nostre API di IA generativa hanno il punteggio dell'attributo di sicurezza per aiutare i clienti a testare i filtri di sicurezza e e definiscono soglie di affidabilità adatte al caso d'uso e all'attività di appartenenza. Consulta la sezione Filtri e attributi di sicurezza. per saperne di più.
Quando le nostre API generative sono integrate nel tuo caso d'uso unico e nel tuo contesto, altre considerazioni sull'AI responsabile limitazioni potrebbe essere necessario prendere in considerazione. Incoraggiamo i clienti a promuovere le best practice consigliate per equità, interpretabilità, privacy e sicurezza.
Filtri e attributi di sicurezza
Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta quanto segue pagine:
Limitazioni del modello
Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (ma non si limitano a):
Casi limite: i casi limite si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono Limitazioni delle prestazioni del modello, come l'eccessiva affidabilità del modello interpretazione errata del contesto o output inappropriati.
Modellare allucinazioni, fondatezza e oggettività: i modelli di IA generativa possono mancare di oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questa limitazione può portare a allucinazioni del modello, che si riferiscono a istanze in cui può generare output plausibile, ma di fatto errata, irrilevante, inappropriata o senza senso. Per ridurre questa possibilità, puoi basare i modelli sul tuo dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta la Panoramica del grounding.
Qualità e ottimizzazione dei dati: la qualità, la precisione e il bias del prompt o dei dati inseriti in un modello possono avere un impatto significativo sul suo rendimento. Se gli utenti inseriscono dati o prompt imprecisi o errati, il modello può avere prestazioni non ottimali o output errati.
Amplificazione dei bias: i modelli di IA generativa possono amplificare inavvertitamente pregiudizi esistenti nei dati di addestramento, che portano a risultati che possono rafforzano i pregiudizi sociali e la disparità di trattamento di alcuni gruppi.
Qualità linguistica: sebbene i modelli offrano un'esperienza multilingue straordinaria in base ai benchmark considerati, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) sono in inglese lingua. Per ulteriori informazioni, consulta Blog di Google Research.
- I modelli di IA generativa possono fornire una qualità del servizio incoerente utenti diversi. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con una minore rappresentazione.
Benchmark e sottogruppi per l'equità: analisi dell'equità di Google Research dei nostri modelli di AI generativa non forniscono un account esaustivo vari rischi potenziali. Ad esempio, ci concentriamo sui bias in base a genere, gruppo etnico etnia e religione, ma eseguire l'analisi solo sulla del linguaggio naturale e degli output del modello. Per ulteriori informazioni, consulta Blog di Google Research.
Competenza settoriale limitata: i modelli di IA generativa possono avere la profondità conoscenze necessarie per fornire risposte accurate e dettagliate su su argomenti specializzati o tecnici che portano a errori superficiali o informazioni. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati in base a dati specifici del dominio e deve essere presente una supervisione umana significativa in contesti con il potenziale di incidere in modo significativo sui diritti individuali.
Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo valore di sicurezza, i nostri classificatori di sicurezza non vengono applicati e ciò potrebbe a scarse prestazioni del modello. Sebbene i nostri modelli siano progettati per gestire di formati di testo diversi, il loro rendimento può risentirne se i dati di input ha una struttura insolita o complessa.
Pratiche consigliate
Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche considerare altri rischi specifici per il caso d'uso, gli utenti e il contesto aziendale in con salvaguardie tecniche integrate.
Ti consigliamo di seguire questi passaggi:
- Valuta i rischi per la sicurezza della tua applicazione.
- Esegui test di sicurezza appropriati al tuo caso d'uso.
- Se necessario, configura i filtri di sicurezza.
- Richiedi il feedback degli utenti e monitora i contenuti.
Segnala abuso
Puoi segnalare un sospetto abuso del Servizio o qualsiasi output generato che contiene materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnalare un sospetto abuso su Google Cloud.
Risorse aggiuntive
- Scopri di più sul monitoraggio degli abusi.
- Scopri di più sui consigli di Google per le pratiche di IA responsabile.
- Leggi il nostro blog Un'agenda condivisa per il progresso dell'IA responsabile