Ajuste de LLM y modelos de IA

Los modelos de lenguaje grandes (LLM) son herramientas potentes que pueden ayudar con muchas tareas diferentes, desde escribir correos electrónicos hasta responder preguntas complejas. Pero, a veces, estos modelos no entienden bien lo que necesitas que hagan en tu proyecto específico. Para eso sirve el ajuste. Es como enseñarle a un estudiante inteligente las habilidades específicas que necesita para un trabajo en particular.

Ajusta Gemini con Google AI Studio

¿Qué es el ajuste?

El ajuste implica seguir entrenando un LLM entrenado previamente con un conjunto de datos específico de la tarea (un proceso de aprendizaje por transferencia). Considéralo así: un modelo previamente entrenado ya aprendió mucha información general, y el ajuste lo ayuda a especializarse en un área en particular.

Cuándo realizar un ajuste o usar RAG

El ajuste y la generación mejorada por recuperación (RAG) son dos formas diferentes de ajustar los LLM para usos específicos. Elegir el método adecuado depende de factores como el tipo de tarea, si tienes suficientes datos y lo que quieres lograr.

Técnica


Diferencia principal


Ventajas

Desafíos

Ajuste

Altera el parámetro del modelo.

Exactitud y especificidad mejoradas, menos alucinaciones, interacciones personalizadas, rentabilidad y menos sesgos.

Riesgo de "olvido catastrófico", mayor costo de recursos, mayores demandas de datos y potencial de "sobreajuste".

RAG


Mejora las instrucciones con conocimiento externo.

Integración dinámica de conocimiento, relevancia contextual, versatilidad, menor necesidad de capacitación extensa.

Precisión limitada (por ejemplo, RAG solo puede hacer referencia a los datos a los que tiene acceso y no hace inferencias basadas en su entrenamiento), complejidad de mantener los sistemas RAG, potencial de alucinaciones.

Técnica


Diferencia principal


Ventajas

Desafíos

Ajuste

Altera el parámetro del modelo.

Exactitud y especificidad mejoradas, menos alucinaciones, interacciones personalizadas, rentabilidad y menos sesgos.

Riesgo de "olvido catastrófico", mayor costo de recursos, mayores demandas de datos y potencial de "sobreajuste".

RAG


Mejora las instrucciones con conocimiento externo.

Integración dinámica de conocimiento, relevancia contextual, versatilidad, menor necesidad de capacitación extensa.

Precisión limitada (por ejemplo, RAG solo puede hacer referencia a los datos a los que tiene acceso y no hace inferencias basadas en su entrenamiento), complejidad de mantener los sistemas RAG, potencial de alucinaciones.

Considera el ajuste cuando quieras que un LLM haga lo siguiente:

  • Comprender un lenguaje o jerga específicos: Si tu proyecto usa muchos términos específicos de la industria, el ajuste puede ayudar al modelo a aprender y usar ese lenguaje correctamente.  
  • Mejorar la exactitud en una tarea específica: El ajuste puede mejorar significativamente el rendimiento del modelo si necesitas que realice una tarea específica, como clasificar opiniones de clientes o generar descripciones de productos. 
  • Adaptar un estilo o tono en particular: Si quieres que el modelo genere texto que coincida con una voz de marca o un estilo de escritura específico, el ajuste puede ser útil.  
  • Trabajar con datos limitados: Cuando tienes datos limitados, el ajuste puede ser más eficiente que entrenar un modelo desde cero porque aprovecha el conocimiento que el modelo previamente entrenado ya tiene.  
  • Reducir los costos y la latencia: En los casos de uso con grandes volúmenes de datos, ajustar un modelo más pequeño puede ser más rentable que usar un modelo de uso general para cada solicitud.
  • Manejar casos extremos: El ajuste puede mejorar la capacidad del modelo para manejar casos extremos e instrucciones complejos que son difíciles de abordar solo con la ingeniería de instrucciones.

Cómo funciona el ajuste: guía paso a paso

El ajuste se basa en un LLM entrenado previamente. Estos modelos entrenados previamente ya adquirieron una gran cantidad de conocimiento general del lenguaje a partir de conjuntos de datos masivos. Durante el ajuste, el modelo se expone a un conjunto de datos más pequeño y específico para la tarea, y los parámetros internos del modelo (piensa en ellos como millones de pequeños botones que controlan su conocimiento) se ajustan para que coincidan mejor con los ejemplos del nuevo conjunto de datos. Este proceso de "reentrenamiento" actualiza discretamente el funcionamiento interno del modelo para que se convierta en un experto en el nuevo tema. Desglosemos el proceso de ajuste en algunos pasos prácticos:

Paso 1: Prepara los datos

Antes de comenzar el ajuste, es fundamental preparar tus datos. La calidad y la estructura de tus datos influyen directamente en el rendimiento del modelo ajustado. Esta etapa implica recopilar, limpiar, dar formato y dividir tus datos en conjuntos adecuados para el entrenamiento, la validación y las pruebas.

  • Recopilar: Recopila los datos que usarás para ajustar el modelo. Estos datos deben ser pertinentes para la tarea específica en la que quieres que el modelo se destaque.
  • Limpiar y dar formato: Limpia tus datos quitando errores, incoherencias y la información que no corresponda; asegúrate de que estén en un formato que el modelo pueda entender.
  • Dividir datos: Divide tus datos en tres conjuntos: 1) entrenamiento (para entrenar el modelo), 2) validación (para supervisar el rendimiento del modelo y ajustar la configuración) y 3) prueba (para evaluar el rendimiento final del modelo ajustado).

Paso 2: Elige un enfoque

Cuando se trata de los ajustes, tienes opciones sobre cuánto del modelo previamente entrenado quieres ajustar. El enfoque que elijas depende de factores como el tamaño de tu conjunto de datos, los recursos de procesamiento disponibles y el nivel de precisión deseado. Los dos enfoques principales son el ajuste completo y el ajuste eficiente de parámetros (PEFT).


Ajuste completo

En el ajuste completo, todos los parámetros del modelo se actualizan durante el entrenamiento. Este enfoque es adecuado cuando el conjunto de datos específico de la tarea es grande y significativamente diferente de los datos de entrenamiento previo.  


PEFT 

El ajuste eficiente de parámetros ofrece una forma más inteligente y eficaz de realizar ajustes. En lugar de volver a entrenar todo el modelo (lo que es lento y costoso), los métodos PEFT detienen el LLM original y agregan pequeñas capas nuevas entrenables.

Considéralo así: en lugar de reescribir un libro de texto de 1,000 páginas, solo agregas algunas páginas de notas con la información nueva y especializada. Esto hace que el proceso sea mucho más rápido y económico. Los métodos de PEFT más populares incluyen LoRA (adaptación de bajo rango) y QLoRA (adaptación de bajo rango cuantificada), que ofrecen una forma más eficiente de ajustar LLM. 

Paso 3: Entrena el modelo

Con tus datos preparados y tu técnica seleccionada, es hora de entrenar el modelo. Aquí es donde el modelo aprende de tus datos y ajusta sus parámetros para mejorar el rendimiento en tu tarea específica. Es fundamental supervisar y ajustar cuidadosamente la configuración de entrenamiento para lograr resultados óptimos.

  • Establece hiperparámetros: Configura parámetros como la tasa de aprendizaje, el tamaño del lote y la cantidad de ciclos de entrenamiento. Estos parámetros ayudan a controlar cómo aprende el modelo.
  • Comienza el entrenamiento: Ingresa los datos de entrenamiento en el modelo y deja que aprenda. Supervisa el rendimiento del modelo con el conjunto de validación.
  • Ajusta según sea necesario: Si el modelo no funciona bien, puedes ajustar los hiperparámetros o probar una técnica de ajuste diferente.

Paso 4: Evalúa e implementa

La etapa final implica evaluar el rendimiento de tu modelo ajustado y, luego, implementarlo para su uso en el mundo real. Esto requiere evaluar su exactitud y eficiencia, y, luego, integrarlo en tu aplicación o sistema. Es posible que se necesiten una supervisión y un reentrenamiento continuos para mantener un rendimiento óptimo a lo largo del tiempo.

  • Evalúa el rendimiento: Usa el conjunto de prueba para evaluar el rendimiento final del modelo ajustado. Consulta las métricas pertinentes para tu tarea, como la exactitud, la precisión y la recuperación.
  • Implementa el modelo: Si estás satisfecho con el rendimiento, implementa el modelo en tu aplicación o sistema.
  • Supervisa el rendimiento: Vigila el rendimiento del modelo en el mundo real y vuelve a entrenarlo según sea necesario para mantener la exactitud.

Tipos de ajuste

Existen diferentes formas de ajustar un modelo según tus objetivos y recursos:

Tipo

Descripción

Casos de uso

Ajuste supervisado

El modelo se entrena con un conjunto de datos etiquetados con pares de entrada y salida.

Clasificación de texto, reconocimiento de entidades con nombre y análisis de opiniones

Ajuste de instrucciones

El modelo se entrena con un conjunto de datos de instrucciones y respuestas deseadas.

Chatbots, sistemas de búsqueda de respuestas, generación de código

Aprendizaje en pocos intentos

Se le proporcionan al modelo algunos ejemplos de la tarea deseada en la instrucción.

Adaptación a nuevas tareas con datos limitados

Aprendizaje por transferencia

El modelo aprovecha el conocimiento adquirido en el entrenamiento previo con un conjunto de datos de uso general.

Adaptación a tareas relacionadas

Ajuste específico del dominio

El modelo se adapta a un dominio o una industria en particular.

Análisis de documentos legales, generación de informes médicos, previsión financiera

Aprendizaje de tareas múltiples

El modelo se entrena en varias tareas simultáneamente.

Mejora del rendimiento en tareas relacionadas

Ajuste secuencial

El modelo se adapta a una serie de tareas relacionadas en etapas.

Ajuste gradual de las capacidades para tareas complejas

Tipo

Descripción

Casos de uso

Ajuste supervisado

El modelo se entrena con un conjunto de datos etiquetados con pares de entrada y salida.

Clasificación de texto, reconocimiento de entidades con nombre y análisis de opiniones

Ajuste de instrucciones

El modelo se entrena con un conjunto de datos de instrucciones y respuestas deseadas.

Chatbots, sistemas de búsqueda de respuestas, generación de código

Aprendizaje en pocos intentos

Se le proporcionan al modelo algunos ejemplos de la tarea deseada en la instrucción.

Adaptación a nuevas tareas con datos limitados

Aprendizaje por transferencia

El modelo aprovecha el conocimiento adquirido en el entrenamiento previo con un conjunto de datos de uso general.

Adaptación a tareas relacionadas

Ajuste específico del dominio

El modelo se adapta a un dominio o una industria en particular.

Análisis de documentos legales, generación de informes médicos, previsión financiera

Aprendizaje de tareas múltiples

El modelo se entrena en varias tareas simultáneamente.

Mejora del rendimiento en tareas relacionadas

Ajuste secuencial

El modelo se adapta a una serie de tareas relacionadas en etapas.

Ajuste gradual de las capacidades para tareas complejas

Prácticas recomendadas para el ajuste

Para aprovechar al máximo el ajuste, sigue estas prácticas recomendadas :  

  • Calidad y cantidad de los datos: Usa un conjunto de datos de alta calidad que sea pertinente, diverso y lo suficientemente grande. La calidad de los datos es fundamental en el ajuste. Asegúrate de que los datos sean precisos, coherentes y estén libres de errores o sesgos. Por ejemplo, un conjunto de datos con etiquetas ruidosas o un formato incoherente puede obstaculizar significativamente la capacidad del modelo de aprender de forma eficaz.   
  • Ajuste de hiperparámetros: Experimenta con diferentes hiperparámetros para encontrar la configuración óptima para tu tarea.   
  • Evaluación periódica: Evalúa periódicamente el rendimiento del modelo durante el entrenamiento para hacer un seguimiento de su progreso y realizar los ajustes necesarios.   
  • Evita el sobreajuste: Usa técnicas como la interrupción anticipada y la regularización para evitar el sobreajuste de los datos de entrenamiento.   
  • Aborda el sesgo: Ten en cuenta los posibles sesgos en los datos y usa técnicas para mitigarlos en el modelo ajustado.

Beneficios del ajuste de LLM

El ajuste ofrece algunas ventajas potenciales:

Mayor exactitud

Puede mejorar significativamente la exactitud y la relevancia del resultado del modelo para tu caso de uso específico, lo que podría reducir las alucinaciones de la IA.  

Entrena de forma más rápida

El ajuste es más rápido y requiere menos datos que entrenar un modelo desde cero.

Rentable

Puede ser más rentable que entrenar un modelo nuevo porque requiere menos potencia de procesamiento y datos. 

Personalización

El ajuste te permite personalizar el comportamiento del modelo para que se alinee con tus necesidades y objetivos específicos. 

Menor sesgo

Puede proporcionar un mejor control sobre el comportamiento del modelo, lo que podría reducir el riesgo de generar contenido sesgado o polémico.

Ventana de contexto aumentada

El ajuste puede usarse para aumentar la ventana de contexto de los LLM, lo que les permite procesar y retener más información.

Desafíos comunes del ajuste

Si bien el ajuste puede ofrecer muchos beneficios, también hay algunos desafíos posibles que se deben tener en cuenta: 

  • Sobreajuste: El modelo aprende los datos de entrenamiento demasiado bien y no se generaliza bien a los datos nuevos. Puedes usar técnicas como la regularización y la magnificación de datos para mitigar el sobreajuste.  
  • Escasez de datos: Los datos insuficientes pueden limitar la eficacia del ajuste. Considera usar técnicas de magnificación de datos o aprendizaje por transferencia de otras tareas relacionadas.  
  • Olvido catastrófico: Si especializas el modelo demasiado, puede olvidar su conocimiento general. Es como un médico experto que se convierte en un cirujano hiperespecializado, pero olvida los primeros auxilios básicos. Puedes usar técnicas como la regularización y los búferes de reproducción para mitigar el olvido catastrófico.  
  • Recursos de procesamiento: Ajustar modelos grandes puede ser costoso en términos de procesamiento y requerir una cantidad significativa de memoria. Considera usar técnicas como PEFT, cuantización y entrenamiento distribuido para reducir los requisitos de procesamiento.  
  • Evaluación: Evaluar el rendimiento de los LLM ajustados puede ser complejo, ya que requiere una selección cuidadosa de métricas y comparativas.  
  • Desafíos del aprendizaje de múltiples tareas: El ajuste de LLM para el aprendizaje de múltiples tareas presenta desafíos únicos, como la interferencia de tareas, en la que diferentes objetivos chocan durante el entrenamiento, y el desequilibrio de datos, en el que las tareas con más datos son dominantes.

Casos de uso del ajuste

El ajuste puede aplicarse a una amplia variedad de casos de uso:

Atención al cliente

Ajusta un LLM para comprender las consultas de los clientes y responder a ellas de manera más eficaz, incluso en chatbots.  

La capacidad de los LLM para generar resúmenes concisos y exactos en dominios o estilos de escritura específicos puede mejorarse a través del ajuste.

Creación de contenido

Crea entradas de blog, artículos o descripciones de productos con un estilo específico con un modelo ajustado.  

Análisis de datos

Ajusta un modelo para clasificar y analizar datos de texto, como opiniones de clientes o publicaciones en redes sociales.

Genera código en un lenguaje de programación o framework específico con un modelo ajustado. 

Traducción automática

Google Traductor usa el ajuste para mejorar la calidad de la traducción automática adaptando el modelo a pares de idiomas y dominios específicos. 

Ajuste de modelos a gran escala con Google Cloud

Google Cloud ofrece un ecosistema sólido para respaldar tus esfuerzos de ajuste de modelos, ya que proporciona todo, desde una plataforma unificada de aprendizaje automático hasta el hardware especializado necesario para acelerar los cálculos complejos. Ya sea que personalices un modelo de base o que definas mejor uno propio, estos servicios optimizan todo el flujo de trabajo.

Da el siguiente paso

Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.

Google Cloud