Acerca del ajuste fino supervisado de los modelos LLM de traducción

El ajuste fino supervisado es una buena opción cuando tienes una tarea de traducción con datos de texto etiquetados disponibles. Es especialmente eficaz en aplicaciones específicas de un dominio en las que la traducción difiere significativamente de los datos generales con los que se entrenó originalmente el modelo grande.

El ajuste fino supervisado adapta el comportamiento del modelo con un conjunto de datos etiquetado. Este proceso ajusta las ponderaciones del modelo para minimizar la diferencia entre sus predicciones y las etiquetas reales.

Modelos admitidos

Los siguientes modelos LLM de traducción admiten el ajuste supervisado:

  • translation-llm-002 (en Vista Previa Pública, solo admite texto)

Limitaciones

  • Número máximo de tokens de entrada y salida:
    • Servicio: 1000 (~4000 caracteres)
  • Tamaño del conjunto de datos de validación: 1024 ejemplos
  • Tamaño del archivo del conjunto de datos de entrenamiento: hasta 1 GB en formato JSONL
  • Longitud del ejemplo de entrenamiento: 1000 (~4000 caracteres)
  • Tamaño del adaptador:
    • Translation LLM V2: solo se admite el valor 4. Usar cualquier otro valor (por ejemplo, 1 u 8), se producirá un error.

Casos prácticos de uso del ajuste fino supervisado

El modelo de traducción preentrenado general funciona bien cuando el texto que se va a traducir se basa en estructuras de texto comunes que el modelo ha aprendido. Si quieres que un modelo aprenda algo específico de un nicho o un dominio que se desvíe de la traducción general, puedes plantearte ajustar ese modelo. Por ejemplo, puedes usar el ajuste de modelos para enseñar al modelo lo siguiente:

  • Contenido específico de un dominio de un sector con jerga o estilo
  • Estructuras o formatos específicos para generar resultados.
  • Comportamientos específicos, como cuándo proporcionar un resultado conciso o detallado.
  • Salidas personalizadas específicas para tipos de entradas concretos.

Configurar una región de una tarea de ajuste

Los datos de los usuarios, como el conjunto de datos transformado y el modelo optimizado, se almacenan en la región de la tarea de optimización. La única región admitida es us-central1.

  • Si usas el SDK de Vertex AI, puedes especificar la región al inicializarlo. Por ejemplo:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Si creas un trabajo de ajuste fino supervisado enviando una solicitud POST mediante el método tuningJobs.create, debes usar la URL para especificar la región en la que se ejecuta el trabajo de ajuste. Por ejemplo, en la siguiente URL, especifica una región sustituyendo ambas instancias de TUNING_JOB_REGION por la región en la que se ejecuta el trabajo.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Si usas la Google Cloud consola, puedes seleccionar el nombre de la región en el campo desplegable Región de la página Detalles del modelo. Esta es la misma página en la que seleccionas el modelo base y el nombre del modelo ajustado.

Cuota

La cuota se aplica al número de tareas de ajuste simultáneas. Todos los proyectos tienen una cuota predeterminada para ejecutar al menos un trabajo de ajuste. Se trata de una cuota global que se comparte entre todas las regiones disponibles y los modelos admitidos. Si quiere ejecutar más trabajos simultáneamente, debe solicitar cuota adicional para Global concurrent tuning jobs.

Precios

El ajuste fino supervisado de translation-llm-002 está en vista previa. Mientras la función de ajuste esté en versión preliminar, no se cobrará por ajustar un modelo ni por usarlo para la inferencia.

Los tokens de entrenamiento se calculan multiplicando el número total de tokens del conjunto de datos de entrenamiento por el número de épocas.

Siguientes pasos