AI responsabile

I modelli linguistici di grandi dimensioni (LLM) possono tradurre la lingua, riassumere il testo, generare scrittura creativa, generare codice, supportare chatbot e assistenti virtuali e integrare motori di ricerca e sistemi di consigli. Allo stesso tempo, essendo una tecnologia ancora in fase iniziale, le sue capacità e i suoi utilizzi in evoluzione generano un potenziale di applicazioni errate, usi impropri e conseguenze non volute o impreviste. I modelli linguistici di grandi dimensioni possono generare output inaspettati, tra cui testo offensivo, insensibile o errato.

Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile predire esattamente quali tipi di output indesiderati o imprevisti potrebbero produrre. Dati questi rischi e queste complessità, le API di IA generativa di Vertex AI sono progettate in base ai principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testino i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di un sistema di filtri dei contenuti integrato e le nostre API di IA generativa hanno un sistema di valutazione degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e a definire soglie di attendibilità adatte al loro caso d'uso e alla loro attività. Per saperne di più, consulta la sezione Filtri e attributi di sicurezza.

Quando le nostre API generative vengono integrate nel tuo caso d'uso e nel tuo contesto specifici, potrebbe essere necessario prendere in considerazione ulteriori considerazioni e limitazioni AI responsabile. Incoraggiamo i clienti a promuovere le best practice consigliate per equità, interpretabilità, privacy e sicurezza.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta le seguenti pagine:

Limitazioni del modello

Le limitazioni che potresti riscontrare quando utilizzi i modelli di AI generativa includono, a titolo esemplificativo:

  • Casi limite: i casi limite si riferiscono a situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nel rendimento del modello, ad esempio eccessiva sicurezza del modello, errata interpretazione del contesto o output inappropriati.

  • Modellare allucinazioni, fondatezza e oggettività: i modelli di IA generativa possono mancare di oggettività nelle conoscenze del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questa limitazione può portare ad "allucinazioni" del modello, ovvero a casi in cui può generare output apparentemente plausibili, ma in realtà errati, irrilevanti, inappropriati o privi di senso. Per ridurre questa possibilità, puoi basare i modelli su dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta la Panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, la precisione e il bias del prompt o dei dati inseriti in un modello possono avere un impatto significativo sul suo rendimento. Se gli utenti inseriscono dati o prompt imprecisi o errati, il modello può avere prestazioni non ottimali o output errati.

  • Amplificazione dei bias: i modelli di IA generativa possono amplificare inavvertitamente i bias esistenti nei dati di addestramento, generando output che possono ulteriormente rafforzare i pregiudizi sociali e il trattamento ineguale di determinati gruppi.

  • Qualità del linguaggio: anche se i modelli offrono impressionanti funzionalità multilingue per i benchmark che abbiamo utilizzato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

    • I modelli di IA generativa possono fornire una qualità del servizio incoerente a diversi utenti. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con una minore rappresentazione.
  • Benchmark e sottogruppi di equità: le analisi di equità di Google Research dei nostri modelli di AI generativa non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati in lingua inglese e sugli output del modello. Per ulteriori informazioni, consulta il blog di Google Research.

  • Esperienza limitata nel dominio: i modelli di IA generativa possono non avere la profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, il che porta a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati in base a dati specifici del dominio e deve essere presente una supervisione umana significativa in contesti con il potenziale di incidere in modo significativo sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a un rendimento scadente del modello. Sebbene i nostri modelli siano progettati per gestire un'ampia gamma di formati di testo, il loro rendimento può essere influenzato se i dati di input hanno una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche considerare altri rischi specifici per il caso d'uso, gli utenti e il contesto aziendale, oltre alle salvaguardie tecniche integrate.

Ti consigliamo di seguire questi passaggi:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Esegui test di sicurezza appropriati al tuo caso d'uso.
  3. Se necessario, configura i filtri di sicurezza.
  4. Richiedi il feedback degli utenti e monitora i contenuti.

Segnala abuso

Puoi segnalare un sospetto abuso del Servizio o qualsiasi output generato che contiene materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnala un sospetto abuso su Google Cloud.

Risorse aggiuntive