Descripción general del ajuste de modelos de PaLM

Ajustar un modelo de base puede mejorar su rendimiento. Los modelos de base se entrenan para usos generales y, a veces, no se realizan tareas como deseas. Esto puede deberse a que las tareas que deseas que realice el modelo son tareas especializadas que son difíciles de enseñar a un modelo solo con el diseño de prompts. En estos casos, puedes usar el ajuste de modelos para mejorar el rendimiento de un modelo en tareas específicas. El ajuste del modelo también puede ayudar a cumplir con los requisitos de salida específicos cuando las instrucciones no son suficientes. En esta página, se proporciona una descripción general del ajuste de modelos, se describen las opciones de ajuste disponibles en Vertex AI y se te ayuda a determinar cuándo se debe usar cada opción de ajuste.

Descripción general del ajuste del modelo

El ajuste del modelo proporciona un modelo con un conjunto de datos de entrenamiento que contiene muchos ejemplos de una tarea única. Para tareas únicas o de especialidad, puedes obtener mejoras significativas en el rendimiento del modelo si lo ajustas en una cantidad simple de ejemplos. Después de ajustar un modelo, se requieren menos ejemplos en sus instrucciones.

Vertex AI admite los siguientes métodos para ajustar los modelos de base:

  • Ajuste supervisado: El ajuste supervisado de un modelo de texto es una buena opción cuando el resultado del modelo no es complejo y es relativamente fácil de definir. Se recomienda el ajuste supervisado para la clasificación, el análisis de opiniones, la extracción de entidades, el resumen del contenido que no es complejo y la escritura de consultas específicas del dominio. Para los modelos de código, la única opción es el ajuste supervisado.

  • Aprendizaje por refuerzo con retroalimentación humana (RLHF): El ajuste de RLHF es una buena opción cuando el resultado de tu modelo es complejo y no se logra fácilmente con el ajuste supervisado. Se recomienda el ajuste del RLHF para responder preguntas, resumir contenido complejo y crear contenido, como una reescritura. El ajuste del RLHF no es compatible con los modelos de código.

  • Destilación de modelos: La destilación es una buena opción si tienes un modelo grande que deseas hacer más pequeño sin disminuir su capacidad de hacer lo que deseas. El proceso de destilación crea un modelo entrenado nuevo y más pequeño cuyo uso cuesta menos y tiene una latencia más baja que el modelo original.

Cuota

Cada proyecto de Google Cloud requiere una cuota suficiente para ejecutar un trabajo de ajuste, y un trabajo de ajuste usa 8 GPU. Si tu proyecto no tiene suficiente cuota para un trabajo de ajuste o si deseas ejecutar varios trabajos de ajuste simultáneos en el proyecto, debes solicitar una cuota adicional.

En la siguiente tabla, se muestra el tipo y la cantidad de cuota que se solicitará según la región en la que especificaste el ajuste:

Región Cuota de recursos Cantidad por trabajo simultáneo

us-central1

Restricted image training Nvidia A100 80GB GPUs per region

8

Restricted image training CPUs for A2 CPU types per region

96

europe-west4

Restricted image training TPU V3 pod cores per region

64

Precios

Cuando ajustas o sintetizas un modelo de base, pagas el costo para ejecutar la canalización de ajuste o síntesis. Cuando implementas un modelo de base ajustado o sintetizado en un extremo de Vertex AI, no se te cobra por el hosting. En el caso de la entrega de predicciones, pagas el mismo precio que pagas cuando entregas predicciones con un modelo de base no ajustado (para el ajuste) o el modelo de estudiante (para la síntesis). Para saber qué modelos de base se pueden ajustar y sintetizar, consulta Modelos de base. Para obtener detalles sobre los precios, consulta Precios para la IA generativa en Vertex AI.

¿Qué sigue?