IA responsabile

I modelli linguistici di grandi dimensioni (LLM) possono tradurre il linguaggio, riassumere testi, generare scrittura creativa, generare codice, potenziare i chatbot e gli assistenti virtuali e integrare i motori di ricerca e i sistemi di suggerimenti. Allo stesso tempo, come tecnologia in fase iniziale, le sue funzionalità e utilizzi in evoluzione possono creare potenziali applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. I modelli linguistici di grandi dimensioni possono generare output non previsti, inclusi testi offensivi, insensibili o di fatto errati.

Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile prevedere esattamente quali tipi di output involontari o imprevisti potrebbero produrre. Dati questi rischi e complessità, le API generative di Vertex AI sono progettate tenendo a mente i principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testano i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di filtri dei contenuti integrati e le nostre API di IA generativa hanno punteggi degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e a definire soglie di confidenza adatte al loro caso d'uso e alla loro attività. Per scoprire di più, consulta la sezione Filtri e attributi di sicurezza.

Quando le nostre API generative sono integrate nel tuo caso d'uso unico e nel tuo contesto, potrebbero essere necessarie ulteriori considerazioni e limitazioni per l'AI responsabile. Incoraggiamo i clienti a promuovere equità, interpretabilità, privacy e sicurezza pratiche consigliate.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta le seguenti pagine:

Metadati delle citazioni

Le nostre funzionalità di codice generativo mirano a produrre contenuti originali e a non replicare in dettaglio contenuti esistenti. Abbiamo progettato i nostri sistemi in modo da limitare le probabilità che ciò accada e migliorarne continuamente il funzionamento. Una pagina web eventualmente riprodotta per esteso verrà citata da queste funzionalità.

A volte gli stessi contenuti sono presenti su più pagine web e cerchiamo di indirizzarti a una fonte molto conosciuta. Nel caso di citazioni di repository di codice, la citazione potrebbe anche fare riferimento a una licenza open source applicabile. Il rispetto di eventuali requisiti di licenza è una tua responsabilità.

Metadati delle citazioni di esempio

{
  "predictions": [
    {
      "safetyAttributes": {
        "scores": [],
        "categories": [],
        "blocked": false
      },
      "content": "Shall I compare thee to a summer's day?\nThou art more lovely and more temperate.\nRough winds do shake the darling buds of May,\nAnd summer's lease hath all too short a date.\n\nSometime too hot the eye of heaven shines,\nAnd often is his gold complexion dimm'd;\nAnd every fair from fair sometime declines,\nBy chance or nature's changing course, untrimm'd.\n\nBut thy eternal summer shall not fade,\nNor lose possession of that fair thou ow'st,\nNor shall death brag thou wanderest in his shade,\nWhen in eternal lines to time thou grow'st.\n\nSo long as men can breathe or eyes can see,\nSo long lives this and this gives life to thee.",
      "citationMetadata": {
        "citations": [
          {
            "endIndex": 262,
            "publicationDate": "1800",
            "startIndex": 0,
            "title": ""The" Royal Shakespeare"
          },
          {
            "title": "Sabrinae corolla in hortulis regiae scholae Salopiensis contextuerunt tres viri floribus legendis ...",
            "publicationDate": "1801",
            "startIndex": 140,
            "endIndex": 417
          },
          {
            "startIndex": 302,
            "publicationDate": "1800",
            "title": ""The" Royal Shakespeere",
            "endIndex": 429
          },
          {
            "startIndex": 473,
            "publicationDate": "1847",
            "title": "The Poems of William Shakespeare",
            "endIndex": 618
          }
        ]
      }
    }
  ]
}

Descrizione dei metadati

Nella tabella seguente vengono descritti i metadati delle citazioni.

Metadati Descrizione

startIndex

Indice nella risposta in cui inizia la citazione (inclusa). Deve essere maggiore o uguale a 0 e minore del valore di endIndex.

endIndex

Indice nell'output della previsione in cui termina la citazione (esclusivo). Deve essere maggiore di startIndex e minore della lunghezza della risposta.

url

URL associato alla citazione. Se presente, l'URL rimanda alla pagina web di origine della citazione.

title

Titolo associato alla citazione. Se presente, si riferisce al titolo della fonte della citazione.

license

Licenza associata alla citazione. Se presente, si riferisce alla licenza rilevata automaticamente della fonte della citazione. Le possibili licenze includono quelle open source.

publicationDate

Data di pubblicazione associata a questa citazione. Se presente, si riferisce alla data in cui è stata pubblicata la fonte della citazione. I formati possibili sono AAAA, AAAA-MM e AAAA-MM-GG.

Limitazioni del modello

Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (a titolo esemplificativo):

  • Casi limite: si riferiscono a situazioni insolite, rare o eccezionali non ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nelle prestazioni del modello, ad esempio sovraconfidenza del modello, interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività: i modelli di IA generativa possono non essere oggettivi nelle conoscenze del mondo reale, nelle proprietà fisiche o nella comprensione accurata. Questo limite può portare alle allucinazioni nei modelli, che fanno riferimento ai casi in cui può generare output dal suono plausibile, ma di fatto errati, irrilevanti, inappropriati o privi di senso. Per ridurre questa possibilità, puoi basare i modelli sui tuoi dati specifici. Per scoprire di più sul grounding in Vertex AI, consulta la panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e il bias del prompt o dell'input di dati in un modello possono avere un impatto significativo sulle sue prestazioni. Se gli utenti inseriscono prompt o dati imprecisi o errati, il modello può avere prestazioni non ottimali o output del modello falsi.

  • Amplificazione dei bias: i modelli di IA generativa possono inavvertitamente amplificare i bias esistenti nei dati di addestramento, portando a output che possono ulteriormente rafforzare i pregiudizi sociali e un trattamento diseguale di determinati gruppi.

  • Qualità della lingua: sebbene i modelli offrano funzionalità multilingue impressionanti nei benchmark rispetto ai quali abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

    • I modelli di IA generativa possono fornire una qualità del servizio incoerente a utenti diversi. Ad esempio, la generazione del testo potrebbe non essere così efficace per alcuni dialetti o varietà linguistiche a causa di una sottorappresentazione nei dati di addestramento. Il rendimento può essere inferiore per le lingue diverse dall'inglese o per le varianti in lingua inglese con meno rappresentazione.
  • Benchmark e sottogruppi di equità: le analisi dell'equità dei nostri modelli di AI generativa non forniscono una descrizione esaustiva dei vari rischi potenziali. Ad esempio, ci concentriamo sui pregiudizi lungo gli assi di genere, gruppo etnico, etnia e religione, ma eseguiamo l'analisi solo sui dati e sugli output dei modelli in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Competenze in domini limitati: i modelli di IA generativa possono non disporre della profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti tecnici o altamente specializzati, portando a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati su dati specifici del dominio e deve esistere una supervisione umana significativa in contesti con il potenziale di influire materialmente sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e di output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a prestazioni del modello scadenti. Sebbene i nostri modelli siano progettati per gestire un'ampia gamma di formati di testo, le prestazioni possono risentirne se i dati di input hanno una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, oltre a misure di salvaguardia tecniche integrate, è importante considerare anche altri rischi specifici del caso d'uso, degli utenti e del contesto aziendale.

Ti consigliamo di procedere nel seguente modo:

  1. Valutare i rischi per la sicurezza della tua applicazione.
  2. Valuta la possibilità di apportare modifiche per mitigare i rischi per la sicurezza.
  3. Esegui test di sicurezza appropriati al tuo caso d'uso.
  4. Sollecitare il feedback degli utenti e monitorare i contenuti.

Segnalare un abuso

È possibile segnalare presunti abusi del Servizio o qualsiasi output generato contenente materiale inappropriato o informazioni imprecise utilizzando il seguente modulo: Segnalare presunti abusi su Google Cloud.

Risorse aggiuntive