Cosa sono le allucinazioni AI?

Le allucinazioni dell'AI sono risultati errati o fuorvianti generati dai modelli di AI. Questi errori possono essere causati da una serie di fattori, tra cui dati di addestramento insufficienti, ipotesi errate effettuate dal modello o pregiudizi nei dati utilizzati per addestrare il modello. Le allucinazioni legate all'AI possono rappresentare un problema per i sistemi di AI che vengono utilizzati per prendere decisioni importanti, ad esempio per diagnosi mediche o per il trading finanziario.

I nuovi clienti ricevono fino a 300 $ di crediti gratuiti per provare Vertex AI e altri prodotti Google Cloud. 

Come si verificano le allucinazioni AI?

I modelli di AI vengono addestrati sui dati e, individuando pattern al loro interno, imparano a fare previsioni. Tuttavia, l'accuratezza di queste previsioni spesso dipende dalla qualità e dalla completezza dei dati di addestramento. Se i dati di addestramento sono incompleti, parziali o errati, il modello di AI potrebbe apprendere pattern errati, portando a previsioni o allucinazioni imprecise.

Ad esempio, un modello di AI addestrato su un set di dati di immagini mediche potrebbe imparare a identificare le cellule tumorali. Tuttavia, se il set di dati non include immagini di tessuto sano, il modello di AI potrebbe prevedere erroneamente che un tessuto sano è affetto da cancro. 

La mancanza di dati di addestramento è solo uno dei motivi per cui possono verificarsi allucinazioni all'AI. Un altro fattore che può contribuire è la mancanza di fondatezza adeguata. Un modello di AI potrebbe avere difficoltà a comprendere con precisione conoscenza del mondo reale, proprietà fisiche o informazioni oggettive. Questa mancanza di fondatezza può far sì che il modello generi output che, sebbene apparentemente plausibili, sono effettivamente errati, irrilevanti o privi di senso. Questo può anche estendersi alla creazione di link a pagine web mai esistite.

Un esempio potrebbe essere un modello di AI progettato per generare riassunti di articoli, che potrebbe produrre un riassunto che include dettagli non presenti nell'articolo originale o persino produrre informazioni da zero. 

Comprendere queste potenziali cause delle allucinazioni dell'AI è importante per gli sviluppatori che lavorano con i modelli di AI. Considerando attentamente la qualità e la completezza dei dati di addestramento, oltre a garantire un'adeguata fondatezza, gli sviluppatori possono ridurre al minimo il rischio di allucinazioni all'AI e garantire l'accuratezza e l'affidabilità dei loro modelli.

Esempi di allucinazioni AI

Le allucinazioni dell'AI possono assumere molte forme diverse. Alcuni esempi comuni includono:

  • Previsioni errate: un modello di AI potrebbe prevedere che si verificherà un evento quando in realtà è improbabile che si verifichi. Ad esempio, un modello di AI che viene utilizzato per prevedere le condizioni meteorologiche potrebbe prevedere che domani pioverà anche se ciò non succederà stando alle previsioni effettive.
  • Falsi positivi: quando si lavora con un modello di AI, questo potrebbe identificare qualcosa come minaccia quando in realtà non lo è. Ad esempio, un modello di AI utilizzato per rilevare le frodi potrebbe segnalare una transazione come fraudolenta quando non lo è.
  • Falsi negativi: un modello di AI potrebbe non riuscire a identificare qualcosa come minaccia quando lo è. Ad esempio, un modello di AI utilizzato per rilevare tumori potrebbe non riuscire a identificarne uno.

Come prevenire le allucinazioni AI

Esistono varie misure per prevenire le allucinazioni legate all'AI, tra cui:

Limita i possibili risultati

Durante l'addestramento di un modello di AI, è importante limitare il numero di possibili risultati che il modello può prevedere. A questo scopo, puoi utilizzare una tecnica chiamata "regolarizzazione". La regolarizzazione penalizza il modello in caso faccia previsioni troppo estreme. Ciò aiuta a evitare che il modello esegua un overfitting dei dati di addestramento ed effettui previsioni errate.

Addestra la tua AI solo con fonti pertinenti e specifiche

Durante l'addestramento di un modello di AI, è importante utilizzare dati pertinenti all'attività che il modello eseguirà. Ad esempio, se stai addestrando un modello di AI per identificare il cancro, dovrai usare un set di dati di immagini mediche. L'utilizzo di dati non pertinenti all'attività potrà portare il modello di AI a fare previsioni errate.

Crea un modello che la tua AI possa seguire

Durante l'addestramento di un modello di AI, è utile creare un modello che quest'ultimo possa seguire. Questo modello potrà guidare l'AI nell'esecuzione di previsioni. Ad esempio, se stai addestrando un modello di AI per scrivere testo, puoi crearne uno che includa i seguenti elementi:

  • Un titolo.
  • Un'introduzione
  • Un testo
  • Una conclusione

Di' all'AI cosa vuoi e cosa non vuoi

Quando utilizzi un modello di AI, è importante dire al modello cosa vuoi e cosa no. A tal fine, puoi fornirgli un feedback. Ad esempio, se utilizzi un modello di AI per generare testo, puoi fornire al modello un feedback indicandogli quale testo ti piace e quale non ti piace. In questo modo, il modello potrà capire cosa stai cercando.

Risolvi le tue sfide aziendali con Google Cloud

I nuovi clienti ricevono 300 $ di crediti gratuiti da spendere su Google Cloud.
Parla con un esperto delle vendite di Google Cloud per discutere della tua sfida unica in modo più dettagliato.

In che modo Google Cloud può aiutare a prevenire le allucinazioni

Scopri come utilizzare Google Cloud per prevenire le allucinazioni AI: 

Fai il prossimo passo

Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud