Best practice per la sicurezza

I modelli linguistici di grandi dimensioni (LLM) sono in grado di tradurre il linguaggio, riassumere testo, generare scrittura creativa, generazione di codice, chatbot e assistenti virtuali potenziati e completano motori di ricerca e sistemi di consigli. Allo stesso tempo, come un tecnologia allo stadio iniziale, le sue capacità e i suoi usi in evoluzione creano un potenziale applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. Grande linguistici di grandi dimensioni possono generare output che non ti aspetti, tra cui testo offensivo, insensibile o di fatto errato.

Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile per prevedere esattamente quali tipi di output potrebbero produrre. Dati questi rischi e complessità, le API di IA generativa di Vertex AI sono progettate con i principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testare i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio ha un filtro dei contenuti integrato, mentre le nostre API di IA generativa hanno il punteggio dell'attributo di sicurezza per aiutare i clienti a testare i filtri di sicurezza e e definiscono soglie di affidabilità adatte al caso d'uso e all'attività di appartenenza. Consulta la sezione Filtri e attributi di sicurezza. per saperne di più.

Quando le nostre API generative sono integrate nel tuo caso d'uso unico e nel tuo contesto, altre considerazioni sull'AI responsabile limitazioni potrebbe essere necessario prendere in considerazione. Incoraggiamo i clienti a promuovere la correttezza, interpretabilità, privacy e sicurezza best practice consigliate.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta quanto segue pagine:

Limitazioni del modello

Le limitazioni che puoi incontrare quando utilizzi i modelli di AI generativa includono (ma non si limitano a):

  • Casi limite: si riferiscono a situazioni insolite, rare o eccezionali. che non sono ben rappresentati nei dati di addestramento. Questi casi possono Limitazioni delle prestazioni del modello, come l'eccessiva affidabilità del modello interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività: modelli di IA generativa possono mancare di oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o una migliore comprensione. Questa limitazione può portare a allucinazioni del modello, che si riferiscono a istanze in cui può generare output plausibile, ma di fatto errata, irrilevante, inappropriata o senza senso. Per ridurre questa possibilità, puoi basare i modelli sul tuo dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta Panoramica del percorso.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e i bias del prompt. o l'input di dati in un modello può avere un impatto significativo delle prestazioni. Se gli utenti inseriscono dati o richieste inesatti o errati, il può avere prestazioni non ottimali o output del modello falsi.

  • Amplificazione dei bias: i modelli di IA generativa possono amplificare inavvertitamente pregiudizi esistenti nei dati di addestramento, che portano a risultati che possono rafforzano i pregiudizi sociali e la disparità di trattamento di alcuni gruppi.

  • Qualità linguistica: sebbene i modelli offrano un'esperienza multilingue straordinaria in base ai benchmark considerati, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) sono in inglese lingua. Per ulteriori informazioni, consulta Blog di Google Research.

    • I modelli di IA generativa possono fornire una qualità del servizio incoerente utenti diversi. Ad esempio, la generazione di testo potrebbe non essere così efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione in i dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o Varietà di lingua inglese con meno rappresentazione.
  • Benchmark e sottogruppi per l'equità: analisi dell'equità di Google Research dei nostri modelli di AI generativa non forniscono un account esaustivo vari rischi potenziali. Ad esempio, ci concentriamo sui bias in base a genere, gruppo etnico etnia e religione, ma eseguire l'analisi solo sulla del linguaggio naturale e degli output del modello. Per ulteriori informazioni, consulta Blog di Google Research.

  • Competenza settoriale limitata: i modelli di IA generativa possono mancare la profondità conoscenze necessarie per fornire risposte accurate e dettagliate su su argomenti specializzati o tecnici che portano a errori superficiali o informazioni. Per casi d'uso specializzati e complessi, i modelli dovrebbero essere ottimizzati specifici del dominio ed è necessaria una significativa supervisione umana contesti che possono avere un impatto concreto sui singoli diritti.

  • Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo valore di sicurezza, i nostri classificatori di sicurezza non vengono applicati e ciò potrebbe a scarse prestazioni del modello. Sebbene i nostri modelli siano progettati per gestire di formati di testo diversi, il loro rendimento può risentirne se i dati di input ha una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche considerare altri rischi specifici per il caso d'uso, gli utenti e il contesto aziendale in con salvaguardie tecniche integrate.

Ti consigliamo di procedere nel seguente modo:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Valuta la possibilità di apportare modifiche per mitigare i rischi per la sicurezza.
  3. Esegui test di sicurezza appropriati per il tuo caso d'uso.
  4. Sollecitare il feedback degli utenti e monitorare i contenuti.

Segnala abuso

Puoi segnalare presunti abusi del Servizio o qualsiasi output generato che contiene materiale inappropriato o informazioni imprecise utilizzando: modulo: Segnalare i presunti abusi su Google Cloud.

Risorse aggiuntive