Los modelos de lenguaje grandes (LLM) son herramientas potentes que pueden ayudar con muchas tareas diferentes, desde escribir correos electrónicos hasta responder preguntas complejas. Pero, a veces, estos modelos no entienden bien lo que necesitas que hagan en tu proyecto específico. Para eso sirve el ajuste. Es como enseñarle a un estudiante inteligente las habilidades específicas que necesita para un trabajo en particular.
El ajuste implica seguir entrenando un LLM entrenado previamente con un conjunto de datos específico de la tarea (un proceso de aprendizaje por transferencia). Considéralo así: un modelo previamente entrenado ya aprendió mucha información general, y el ajuste lo ayuda a especializarse en un área en particular.
El ajuste y la generación mejorada por recuperación (RAG) son dos formas diferentes de ajustar los LLM para usos específicos. Elegir el método adecuado depende de factores como el tipo de tarea, si tienes suficientes datos y lo que quieres lograr.
Técnica | Diferencia principal | Ventajas | Desafíos |
Ajuste | Altera el parámetro del modelo. | Exactitud y especificidad mejoradas, menos alucinaciones, interacciones personalizadas, rentabilidad y menos sesgos. | Riesgo de "olvido catastrófico", mayor costo de recursos, mayores demandas de datos y potencial de "sobreajuste". |
RAG | Mejora las instrucciones con conocimiento externo. | Integración dinámica de conocimiento, relevancia contextual, versatilidad, menor necesidad de capacitación extensa. | Precisión limitada (por ejemplo, RAG solo puede hacer referencia a los datos a los que tiene acceso y no hace inferencias basadas en su entrenamiento), complejidad de mantener los sistemas RAG, potencial de alucinaciones. |
Técnica
Diferencia principal
Ventajas
Desafíos
Ajuste
Altera el parámetro del modelo.
Exactitud y especificidad mejoradas, menos alucinaciones, interacciones personalizadas, rentabilidad y menos sesgos.
Riesgo de "olvido catastrófico", mayor costo de recursos, mayores demandas de datos y potencial de "sobreajuste".
RAG
Mejora las instrucciones con conocimiento externo.
Integración dinámica de conocimiento, relevancia contextual, versatilidad, menor necesidad de capacitación extensa.
Precisión limitada (por ejemplo, RAG solo puede hacer referencia a los datos a los que tiene acceso y no hace inferencias basadas en su entrenamiento), complejidad de mantener los sistemas RAG, potencial de alucinaciones.
Considera el ajuste cuando quieras que un LLM haga lo siguiente:
El ajuste se basa en un LLM entrenado previamente. Estos modelos entrenados previamente ya adquirieron una gran cantidad de conocimiento general del lenguaje a partir de conjuntos de datos masivos. Durante el ajuste, el modelo se expone a un conjunto de datos más pequeño y específico para la tarea, y los parámetros internos del modelo (piensa en ellos como millones de pequeños botones que controlan su conocimiento) se ajustan para que coincidan mejor con los ejemplos del nuevo conjunto de datos. Este proceso de "reentrenamiento" actualiza discretamente el funcionamiento interno del modelo para que se convierta en un experto en el nuevo tema. Desglosemos el proceso de ajuste en algunos pasos prácticos:
Antes de comenzar el ajuste, es fundamental preparar tus datos. La calidad y la estructura de tus datos influyen directamente en el rendimiento del modelo ajustado. Esta etapa implica recopilar, limpiar, dar formato y dividir tus datos en conjuntos adecuados para el entrenamiento, la validación y las pruebas.
Cuando se trata de los ajustes, tienes opciones sobre cuánto del modelo previamente entrenado quieres ajustar. El enfoque que elijas depende de factores como el tamaño de tu conjunto de datos, los recursos de procesamiento disponibles y el nivel de precisión deseado. Los dos enfoques principales son el ajuste completo y el ajuste eficiente de parámetros (PEFT).
En el ajuste completo, todos los parámetros del modelo se actualizan durante el entrenamiento. Este enfoque es adecuado cuando el conjunto de datos específico de la tarea es grande y significativamente diferente de los datos de entrenamiento previo.
El ajuste eficiente de parámetros ofrece una forma más inteligente y eficaz de realizar ajustes. En lugar de volver a entrenar todo el modelo (lo que es lento y costoso), los métodos PEFT detienen el LLM original y agregan pequeñas capas nuevas entrenables.
Considéralo así: en lugar de reescribir un libro de texto de 1,000 páginas, solo agregas algunas páginas de notas con la información nueva y especializada. Esto hace que el proceso sea mucho más rápido y económico. Los métodos de PEFT más populares incluyen LoRA (adaptación de bajo rango) y QLoRA (adaptación de bajo rango cuantificada), que ofrecen una forma más eficiente de ajustar LLM.
Con tus datos preparados y tu técnica seleccionada, es hora de entrenar el modelo. Aquí es donde el modelo aprende de tus datos y ajusta sus parámetros para mejorar el rendimiento en tu tarea específica. Es fundamental supervisar y ajustar cuidadosamente la configuración de entrenamiento para lograr resultados óptimos.
La etapa final implica evaluar el rendimiento de tu modelo ajustado y, luego, implementarlo para su uso en el mundo real. Esto requiere evaluar su exactitud y eficiencia, y, luego, integrarlo en tu aplicación o sistema. Es posible que se necesiten una supervisión y un reentrenamiento continuos para mantener un rendimiento óptimo a lo largo del tiempo.
Existen diferentes formas de ajustar un modelo según tus objetivos y recursos:
Tipo | Descripción | Casos de uso |
Ajuste supervisado | El modelo se entrena con un conjunto de datos etiquetados con pares de entrada y salida. | Clasificación de texto, reconocimiento de entidades con nombre y análisis de opiniones |
Ajuste de instrucciones | El modelo se entrena con un conjunto de datos de instrucciones y respuestas deseadas. | Chatbots, sistemas de búsqueda de respuestas, generación de código |
Aprendizaje en pocos intentos | Se le proporcionan al modelo algunos ejemplos de la tarea deseada en la instrucción. | Adaptación a nuevas tareas con datos limitados |
Aprendizaje por transferencia | El modelo aprovecha el conocimiento adquirido en el entrenamiento previo con un conjunto de datos de uso general. | Adaptación a tareas relacionadas |
Ajuste específico del dominio | El modelo se adapta a un dominio o una industria en particular. | Análisis de documentos legales, generación de informes médicos, previsión financiera |
Aprendizaje de tareas múltiples | El modelo se entrena en varias tareas simultáneamente. | Mejora del rendimiento en tareas relacionadas |
Ajuste secuencial | El modelo se adapta a una serie de tareas relacionadas en etapas. | Ajuste gradual de las capacidades para tareas complejas |
Tipo
Descripción
Casos de uso
Ajuste supervisado
El modelo se entrena con un conjunto de datos etiquetados con pares de entrada y salida.
Clasificación de texto, reconocimiento de entidades con nombre y análisis de opiniones
Ajuste de instrucciones
El modelo se entrena con un conjunto de datos de instrucciones y respuestas deseadas.
Chatbots, sistemas de búsqueda de respuestas, generación de código
Aprendizaje en pocos intentos
Se le proporcionan al modelo algunos ejemplos de la tarea deseada en la instrucción.
Adaptación a nuevas tareas con datos limitados
Aprendizaje por transferencia
El modelo aprovecha el conocimiento adquirido en el entrenamiento previo con un conjunto de datos de uso general.
Adaptación a tareas relacionadas
Ajuste específico del dominio
El modelo se adapta a un dominio o una industria en particular.
Análisis de documentos legales, generación de informes médicos, previsión financiera
Aprendizaje de tareas múltiples
El modelo se entrena en varias tareas simultáneamente.
Mejora del rendimiento en tareas relacionadas
Ajuste secuencial
El modelo se adapta a una serie de tareas relacionadas en etapas.
Ajuste gradual de las capacidades para tareas complejas
Para aprovechar al máximo el ajuste, sigue estas prácticas recomendadas :
El ajuste ofrece algunas ventajas potenciales:
Mayor exactitud
Puede mejorar significativamente la exactitud y la relevancia del resultado del modelo para tu caso de uso específico, lo que podría reducir las alucinaciones de la IA.
Entrena de forma más rápida
El ajuste es más rápido y requiere menos datos que entrenar un modelo desde cero.
Rentable
Puede ser más rentable que entrenar un modelo nuevo porque requiere menos potencia de procesamiento y datos.
Personalización
El ajuste te permite personalizar el comportamiento del modelo para que se alinee con tus necesidades y objetivos específicos.
Menor sesgo
Puede proporcionar un mejor control sobre el comportamiento del modelo, lo que podría reducir el riesgo de generar contenido sesgado o polémico.
Ventana de contexto aumentada
El ajuste puede usarse para aumentar la ventana de contexto de los LLM, lo que les permite procesar y retener más información.
Si bien el ajuste puede ofrecer muchos beneficios, también hay algunos desafíos posibles que se deben tener en cuenta:
El ajuste puede aplicarse a una amplia variedad de casos de uso:
Atención al cliente
Ajusta un LLM para comprender las consultas de los clientes y responder a ellas de manera más eficaz, incluso en chatbots.
La capacidad de los LLM para generar resúmenes concisos y exactos en dominios o estilos de escritura específicos puede mejorarse a través del ajuste.
Creación de contenido
Crea entradas de blog, artículos o descripciones de productos con un estilo específico con un modelo ajustado.
Análisis de datos
Ajusta un modelo para clasificar y analizar datos de texto, como opiniones de clientes o publicaciones en redes sociales.
Genera código en un lenguaje de programación o framework específico con un modelo ajustado.
Traducción automática
Google Traductor usa el ajuste para mejorar la calidad de la traducción automática adaptando el modelo a pares de idiomas y dominios específicos.
Google Cloud ofrece un ecosistema sólido para respaldar tus esfuerzos de ajuste de modelos, ya que proporciona todo, desde una plataforma unificada de aprendizaje automático hasta el hardware especializado necesario para acelerar los cálculos complejos. Ya sea que personalices un modelo de base o que definas mejor uno propio, estos servicios optimizan todo el flujo de trabajo.
Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.