¿Qué son las alucinaciones de la IA?

Las alucinaciones de IA son resultados incorrectos o engañosos que generan los modelos de IA. Estos errores pueden deberse a diversos factores, como datos de entrenamiento insuficientes, suposiciones incorrectas realizadas por el modelo o sesgos en los datos usados para entrenar el modelo. Las alucinaciones de IA pueden ser un problema para los sistemas de IA que se utilizan para tomar decisiones importantes, como diagnósticos médicos o el comercio financiero.

Los clientes nuevos obtienen hasta $300 en créditos gratuitos para probar Vertex AI y otros productos de Google Cloud. 

¿Cómo se producen las alucinaciones AI?

Los modelos de IA se entrenan con datos y aprenden a hacer predicciones buscando patrones en los datos. Sin embargo, la exactitud de estas predicciones suele depender de la calidad y la integridad de los datos de entrenamiento. Si los datos de entrenamiento están incompletos, tienen sesgo o son defectuosos, el modelo de IA puede aprender patrones incorrectos, lo que lleva a predicciones inexactas o alucinaciones.

Por ejemplo, un modelo de IA que se entrena con un conjunto de datos de imágenes médicas puede aprender a identificar células cáncer. Sin embargo, si el conjunto de datos no incluye ninguna imagen de tejido sano, el modelo de IA podría predecir incorrectamente que el tejido sano es cáncer. 

Los datos de entrenamiento erróneos son solo uno de los motivos por los que pueden producirse alucinaciones con la IA. Otro factor que puede contribuir es la falta de una fundamentación adecuada. Es posible que un modelo de IA tenga dificultades para comprender con precisión el conocimiento del mundo real, las propiedades físicas o la información fáctica. Esta falta de fundamentación puede hacer que el modelo genere resultados que, si bien parecen plausibles, en realidad son incorrectos, irrelevantes o sin sentido. Esto incluso puede extenderse a la fabricación de vínculos a páginas web que nunca existieron.

Un ejemplo de esto sería que un modelo de IA diseñado para generar resúmenes de artículos de noticias produzca un resumen que incluya detalles que no están presentes en el artículo original o incluso invente información por completo. 

Comprender estas posibles causas de las alucinaciones de la IA es importante para los desarrolladores que trabajan con modelos de IA. Si consideran cuidadosamente la calidad y la integridad de los datos de entrenamiento, además de garantizar una fundamentación adecuada, los desarrolladores pueden minimizar el riesgo de alucinaciones de IA y garantizar la exactitud y confiabilidad de sus modelos.

Ejemplos de alucinaciones de la IA

Las alucinaciones de IA pueden adoptar muchas formas. Algunos ejemplos comunes incluyen:

  • Predicciones incorrectas: Un modelo de IA puede predecir que un evento ocurrirá cuando es poco probable que suceda. Por ejemplo, un modelo de IA que se usa para predecir el clima puede predecir que lloverá mañana, cuando no se prevé lluvia.
  • Falsos positivos: Cuando se trabaja con un modelo de IA, puede identificar que algo es una amenaza cuando no lo es. Por ejemplo, un modelo de IA que se usa para detectar fraudes puede marcar una transacción como fraudulenta cuando no lo es.
  • Falsos negativos: Es posible que un modelo de IA no identifique algo como una amenaza cuando lo es. Por ejemplo, es posible que un modelo de IA que se usa para detectar el cáncer no identifique un tumor dañino.

Cómo prevenir las alucinaciones de la IA

Hay varias medidas que se pueden tomar para prevenir las alucinaciones de IA, que incluyen las siguientes:

Limita los resultados posibles

Cuando se entrena un modelo de IA, es importante limitar la cantidad de resultados posibles que el modelo puede predecir. Esto se puede hacer con una técnica llamada “regularización”. La regularización penaliza al modelo por hacer predicciones demasiado extremas. Esto ayuda a evitar que el modelo sobreajuste los datos de entrenamiento y haga predicciones incorrectas.

Entrena tu IA solo con fuentes relevantes y específicas

Cuando se entrena un modelo de IA, es importante usar datos relevantes para la tarea que realizará el modelo. Por ejemplo, si entrenas un modelo de IA para identificar cáncer, deberías usar un conjunto de datos de imágenes médicas. Usar datos que no son relevantes para la tarea puede provocar que el modelo de IA haga predicciones incorrectas.

Crea una plantilla para que tu IA las siga

Cuando se entrena un modelo de IA, es útil crear una plantilla para que el modelo la siga. Esta plantilla puede ayudar a guiar al modelo para que haga predicciones. Por ejemplo, si entrenas un modelo de IA para que escriba texto, puedes crear una plantilla que incluya los siguientes elementos:

  • Un título
  • Una introducción
  • Un cuerpo
  • Una conclusión

Dile a tu IA lo que quieres y lo que no

Cuando usas un modelo de IA, es importante decirle al modelo lo que quieres y lo que no. Para ello, se pueden proporcionar comentarios al modelo. Por ejemplo, si usas un modelo de IA para generar texto, puedes proporcionarle comentarios diciéndole qué texto te gusta y qué no. Esto ayudará al modelo a aprender lo que estás buscando.

Resuelve tus desafíos más difíciles con Google Cloud

Los clientes nuevos obtienen $300 en créditos gratuitos que pueden usar en Google Cloud.
Habla con un especialista en ventas de Google Cloud para analizar tu desafío único en más detalle.

Cómo Google Cloud puede ayudar a prevenir alucinaciones

Aprende a usar Google Cloud para ayudar a prevenir alucinaciones de IA: 

Da el siguiente paso

Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Consola
Google Cloud