El ajuste fino supervisado es una buena opción cuando tienes una tarea de traducción con datos de texto etiquetados disponibles. Es particularmente eficaz para aplicaciones específicas de dominio en las que la traducción difiere de manera significativa de los datos generales en los que se entrenó el modelo grande en un principio.
El ajuste fino supervisado adapta el comportamiento del modelo con un conjunto de datos etiquetado. Este proceso ajusta las ponderaciones del modelo para minimizar la diferencia entre sus predicciones y las etiquetas reales.
Modelos compatibles
Los siguientes modelos de LLM de traducción admiten la optimización supervisada:
translation-llm-002
(en la versión preliminar pública, solo admite texto)
Limitaciones
- Cantidad máxima de tokens de entrada y salida:
- Publicación: 1,000 (~4,000 caracteres)
- Tamaño del conjunto de datos de validación: 1,024 ejemplos
- Tamaño del archivo del conjunto de datos de entrenamiento: Hasta 1 GB para JSONL
- Longitud del ejemplo de entrenamiento: 1,000 (~4,000 caracteres)
- Tamaño del adaptador:
Translation LLM V2
: El valor admitido es solo 4. Usar cualquier otro valor (p.ej., 1 o 8) provocará un error.
Casos de uso para usar la optimización supervisada
El modelo de traducción general previamente entrenado funciona bien cuando el texto que se va a traducir se basa en estructuras de texto generales de lugares comunes de las que aprendió el modelo. Si deseas que un modelo aprenda algo específico o de nicho que se desvíe de la traducción general, deberías considerar ajustar ese modelo. Por ejemplo, puedes usar el ajuste de modelos para enseñarle al modelo lo siguiente:
- Contenido específico de un dominio de la industria con jerga o estilo
- Estructuras o formatos específicos para generar salidas.
- Comportamientos específicos, como cuándo proporcionar una salida tersa o verbosa.
- Salidas específicas personalizadas para tipos específicos de entradas.
Configura una región de trabajo de ajuste
Los datos del usuario, como el conjunto de datos transformado y el modelo ajustado, se almacenan en la
región del trabajo de ajuste. La única región compatible es us-central1
.
Si usas el SDK de Vertex AI, puedes especificar la región durante la inicialización. Por ejemplo:
import vertexai vertexai.init(project='myproject', location='us-central1')
Si creas un trabajo de ajuste supervisado a través del envío de una solicitud POST con el método
tuningJobs.create
, usa la URL para especificar la región en la que se ejecuta el trabajo de ajuste. Por ejemplo, en la siguiente URL, reemplaza ambas instancias deTUNING_JOB_REGION
por la región donde se ejecuta el trabajo para especificar una región.https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Si usas la consola de Google Cloud, puedes seleccionar el nombre de la región en el campo desplegable Región en la página Detalles del modelo. Esta es la misma página en la que seleccionas el modelo base y un nombre de modelo ajustado.
Cuota
La cuota se aplica a la cantidad de trabajos de ajuste simultáneos. Cada proyecto viene con una cuota predeterminada para ejecutar al menos un trabajo de ajuste. Esta es una cuota global, que se comparte en todas las regiones y modelos compatibles disponibles. Si necesitas ejecutar más trabajos de forma simultánea, debes solicitar una cuota adicional para Global concurrent tuning jobs
.
Precios
El ajuste supervisado de translation-llm-002
se encuentra en Vista previa. Mientras el ajuste se encuentra en versión preliminar, no se cobra por ajustar un modelo ni por usarlo para la inferencia.
Los tokens de entrenamiento se calculan según la cantidad total de tokens en tu conjunto de datos de entrenamiento, умноженном por la cantidad de épocas.
¿Qué sigue?
- Prepara un conjunto de datos de ajuste supervisado