En este documento, se describe cómo ajustar un modelo de Gemini mediante el ajuste supervisado.
Antes de comenzar
Antes de comenzar, debes preparar un conjunto de datos de ajuste fino supervisado. Según tu caso de uso, existen diferentes requisitos.
- Prepara un conjunto de datos de texto para el ajuste: Ajuste de texto
- Prepara un conjunto de datos de imágenes para el ajuste: Ajuste de imágenes
- Prepara un conjunto de datos de documentos para el ajuste: Ajuste de documentos
- Prepara un conjunto de datos de audio para el ajuste: Ajuste de audio
- Prepara un conjunto de datos de video para el ajuste: Ajuste de video
Modelos compatibles
Los siguientes modelos de base de Gemini admiten la optimización supervisada:
Crea un trabajo de ajuste.
Puedes crear un trabajo de ajuste supervisado con la Google Cloud consola, el SDK de Google Gen AI, el SDK de Vertex AI para Python, la API de REST o Colab Enterprise:
Console
Para ajustar un modelo de texto con ajuste supervisado mediante la Google Cloud consola, sigue estos pasos:
En la sección Vertex AI de la Google Cloud consola, ve a la página Vertex AI Studio.
Haz clic en Crear modelo ajustado.
En Detalles del modelo, configura lo siguiente:
- En el campo Nombre del modelo ajustado, ingresa un nombre para el modelo ajustado nuevo, de hasta 128 caracteres.
- En el campo Modelo base, selecciona
gemini-2.5-flash
. - En el campo desplegable Región, selecciona la región en la que se ejecuta el trabajo de ajuste de canalización y en la que se implementa el modelo ajustado.
En Ajuste de configuración, configura lo siguiente:
- En el campo Cantidad de ciclos de entrenamiento, ingresa la cantidad de pasos que se ejecutarán para el ajuste del modelo.
- En el campo Adapter Size, ingresa el tamaño del adaptador que se usará para el ajuste del modelo.
- En el campo Multiplicador de tasa de aprendizaje, ingresa el tamaño del paso en cada iteración. El valor predeterminado es 1. .
Opcional: Para inhabilitar los puntos de control intermedios y usar solo el más reciente, haz clic en el botón de activación Exportar solo el último punto de control.
Haz clic en Continuar.
Se abrirá la página Conjunto de datos de ajuste.
Para subir un archivo de conjunto de datos, selecciona una de las siguientes opciones:
- Si aún no subiste un conjunto de datos, selecciona el botón de selección para Subir archivo a Cloud Storage.
- En el campo Seleccionar archivo JSONL, haz clic en Explorar y elige tu archivo de conjunto de datos.
- En Ubicación del conjunto de datos, haz clic en Explorar y elige el bucket de Cloud Storage en el que deseas almacenar el archivo del conjunto de datos.
- Si tu archivo de conjunto de datos ya se encuentra en un bucket de Cloud Storage, selecciona el botón de selección de Archivo existente en Cloud Storage.
- En Ruta del archivo de Cloud Storage, haz clic en Explorar y elige el bucket de Cloud Storage en el que se encuentra el archivo de conjunto de datos.
Para obtener métricas de validación durante el entrenamiento, haz clic en el botón de activación Habilitar validación del modelo (opcional).
- En el archivo Conjunto de datos de validación, ingresa la ruta de Cloud Storage de tu conjunto de datos de validación.
Haz clic en Iniciar ajuste.
Tu modelo nuevo aparece en la sección Modelos ajustados de Gemini Pro en la página Ajustar y sintetizar. Cuando el modelo termina de ajustarse, el Estado dice Completado.
Google Gen AI SDK
SDK de Vertex AI para Python
REST
Para crear un trabajo de ajuste de modelos, envía una solicitud POST mediante el método tuningJobs.create
. Algunos de los parámetros no son compatibles con todos los modelos. Asegúrate de incluir solo los parámetros aplicables del modelo que estás ajustando.
(Opcional) (Versión preliminar) Incluye evaluationConfig
para ejecutar una evaluación automáticamente con el servicio de evaluación de IA generativa después de que se complete el trabajo de ajuste. Esta configuración de evaluación está disponible en la región us-central1
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: ID del proyecto
- TUNING_JOB_REGION: Es la región en la que se ejecuta el trabajo de ajuste. Esta es también la región predeterminada en la que se sube el modelo ajustado.
- BASE_MODEL: El nombre del modelo de base para ajustar.
- TRAINING_DATASET_URI: Es el URI de Cloud Storage de tu conjunto de datos de entrenamiento. Tu conjunto de datos debe tener el formato de un archivo JSONL. Para obtener mejores resultados, proporciona al menos entre 100 y 500 ejemplos. Para obtener más información, consulta Acerca de los conjuntos de datos de ajuste supervisado .
- VALIDATION_DATASET_URIOpcional: Es el URI de Cloud Storage de tu archivo de conjunto de datos de validación.
- EPOCH_COUNTOpcional: Es la cantidad de pases completos que el modelo realiza en todo el conjunto de datos de entrenamiento durante el entrenamiento. Déjala sin configurar para usar el valor recomendado propagado previamente.
- ADAPTER_SIZEOpcional: el tamaño del adaptador que se usará para el trabajo de ajuste. El tamaño del adaptador influye en la cantidad de parámetros entrenables para el trabajo de ajuste. Un tamaño de adaptador más grande implica que el modelo puede aprender tareas más complejas, pero requiere un conjunto de datos de entrenamiento más grande y tiempos de entrenamiento más largos.
- LEARNING_RATE_MULTIPLIER: Opcional: Un multiplicador para aplicar a la tasa de aprendizaje recomendada. Déjala sin configurar para usar el valor recomendado.
- EXPORT_LAST_CHECKPOINT_ONLYOpcional: Establece el valor en
true
para usar solo el punto de control más reciente. - METRIC_SPECOpcional: Una o más especificaciones de métricas que usas para ejecutar una evaluación con el servicio de evaluación de IA generativa. Puedes usar las siguientes especificaciones de métricas:
"pointwise_metric_spec"
,"pairwise_metric_spec"
,"exact_match_spec"
,"bleu_spec"
y"rouge_spec"
. - METRIC_SPEC_FIELD_NAMEOpcional: Son los campos obligatorios para la especificación de métrica elegida. Por ejemplo,
"metric_prompt_template"
. - METRIC_SPEC_FIELD_NAME_CONTENTOpcional: Contenido del campo para la especificación de métrica elegida. Por ejemplo, puedes usar el siguiente contenido del campo para una evaluación punto a punto:
"Evaluate the fluency of this sentence: {response}. Give score from 0 to 1. 0 - not fluent at all. 1 - very fluent."
- CLOUD_STORAGE_BUCKETOpcional: Es el bucket de Cloud Storage para almacenar los resultados de una ejecución de evaluación del servicio de evaluación de IA generativa.
- TUNED_MODEL_DISPLAYNAMEOpcional: Un nombre visible para el modelo ajustado. Si no se establece, se genera un nombre aleatorio.
- KMS_KEY_NAMEOpcional: Es el identificador de recursos de Cloud KMS de la clave de encriptación administrada por el cliente que se usa para proteger un recurso. La clave tiene el formato
projects/my-project/locations/my-region/keyRings/my-kr/cryptoKeys/my-key
. La clave debe estar en la misma región en la que se crea el recurso de procesamiento. Para obtener más información, consulta Claves de encriptación administradas por el cliente (CMEK). - SERVICE_ACCOUNTOpcional: Es la cuenta de servicio con la que se ejecuta la carga de trabajo de tuningJob. Si no se especifica, se usa el agente de servicio de ajuste seguro de Vertex AI en el proyecto. Consulta Agente de servicio de ajuste. Si planeas usar una cuenta de servicio administrada por el cliente, debes otorgarle el rol
roles/aiplatform.tuningServiceAgent
. También otorga el rol de agente de servicio de ajusteroles/iam.serviceAccountTokenCreator
a la cuenta de servicio administrada por el cliente.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Cuerpo JSON de la solicitud:
{ "baseModel": "BASE_MODEL", "supervisedTuningSpec" : { "trainingDatasetUri": "TRAINING_DATASET_URI", "validationDatasetUri": "VALIDATION_DATASET_URI", "hyperParameters": { "epochCount": "EPOCH_COUNT", "adapterSize": "ADAPTER_SIZE", "learningRateMultiplier": "LEARNING_RATE_MULTIPLIER" }, "exportLastCheckpointOnly": EXPORT_LAST_CHECKPOINT_ONLY, "evaluationConfig": { "metrics": [ { "aggregation_metrics": ["AVERAGE", "STANDARD_DEVIATION"], "METRIC_SPEC": { "METRIC_SPEC_FIELD_NAME": METRIC_SPEC_FIELD_CONTENT } }, ], "outputConfig": { "gcs_destination": { "output_uri_prefix": "CLOUD_STORAGE_BUCKET" } }, }, }, "tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME", "encryptionSpec": { "kmsKeyName": "KMS_KEY_NAME" }, "serviceAccount": "SERVICE_ACCOUNT" }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
Ejemplo del comando curl
PROJECT_ID=myproject
LOCATION=global
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
"https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \
-d \
$'{
"baseModel": "gemini-2.5-flash",
"supervisedTuningSpec" : {
"training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_train_data.jsonl",
"validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_validation_data.jsonl"
},
"tunedModelDisplayName": "tuned_gemini"
}'
Colab Enterprise
Puedes crear un trabajo de ajuste del modelo en Vertex AI con el panel lateral de Colab Enterprise. El panel lateral agrega los fragmentos de código pertinentes a tu notebook. Luego, modificas los fragmentos de código y los ejecutas para crear tu trabajo de ajuste. Para obtener más información sobre cómo usar el panel lateral con tus trabajos de ajuste de Vertex AI, consulta Interactúa con Vertex AI para ajustar un modelo.
-
En la Google Cloud consola, ve a la página Mis notebooks de Colab Enterprise.
-
En el menú Región, selecciona la región que contiene el notebook.
-
Haz clic en el notebook que quieras abrir. Si aún no creaste un notebook, crea uno.
-
A la derecha del notebook, en el panel lateral, haz clic en el botón
Ajuste.El panel lateral expande la pestaña Ajuste.
-
Haz clic en el botón Ajustar un modelo de Gemini.
Colab Enterprise agrega celdas de código a tu notebook para ajustar un modelo de Gemini.
-
En tu notebook, busca la celda de código que almacena los valores de los parámetros. Usarás estos parámetros para interactuar con Vertex AI.
-
Actualiza los valores de los siguientes parámetros:
-
PROJECT_ID
: Es el ID del proyecto en el que se encuentra tu notebook. -
REGION
: Es la región en la que se encuentra tu notebook. -
TUNED_MODEL_DISPLAY_NAME
: Es el nombre de tu modelo ajustado.
-
-
En la siguiente celda de código, actualiza los parámetros de ajuste del modelo:
-
source_model
: El modelo de Gemini que deseas usar, por ejemplo,gemini-2.0-flash-001
. -
train_dataset
: Es la URL de tu conjunto de datos de entrenamiento. -
validation_dataset
: URL de tu conjunto de datos de validación. - Ajusta los parámetros restantes según sea necesario.
-
-
Ejecuta las celdas de código que el panel lateral agregó a tu notebook.
-
Después de que se ejecute la última celda de código, haz clic en el botón
Ver trabajo de ajuste que aparece. -
En el panel lateral, se muestra información sobre tu trabajo de ajuste del modelo.
- En la pestaña Monitor, se muestran las métricas de ajuste cuando están listas.
- En la pestaña Conjunto de datos, se muestran un resumen y las métricas sobre tu conjunto de datos después de que se procesa.
- En la pestaña Detalles, se muestra información sobre tu trabajo de ajuste, como el método de ajuste y el modelo base (modelo fuente) que usaste.
-
Una vez que se complete el trabajo de ajuste, puedes ir directamente desde la pestaña Detalles del ajuste a una página en la que puedes probar tu modelo. Haz clic en Probar.
La consola de Google Cloud se abre en la página Chat de texto de Vertex AI, donde puedes probar tu modelo.
Ajusta hiperparámetros
Se recomienda que envíes tu primer trabajo de ajuste sin cambiar los hiperparámetros. El valor predeterminado es el valor recomendado según nuestros resultados de comparativas para obtener la mejor calidad de los resultados del modelo.
- Épocas: Es la cantidad de pases completos que el modelo realiza en todo el conjunto de datos de entrenamiento durante el entrenamiento. Vertex AI ajusta automáticamente el valor predeterminado al tamaño de tu conjunto de datos de entrenamiento. Este valor se basa en los resultados de las comparativas para optimizar la calidad de los resultados del modelo.
- Tamaño del adaptador: Es el tamaño del adaptador que se usará para el trabajo de ajuste. El tamaño del adaptador influye en la cantidad de parámetros entrenables para el trabajo de ajuste. Un tamaño de adaptador más grande implica que el modelo puede aprender tareas más complejas, pero requiere un conjunto de datos de entrenamiento más grande y tiempos de entrenamiento más largos.
- Multiplicador de la tasa de aprendizaje: Es un multiplicador para aplicar a la tasa de aprendizaje recomendada. Puedes aumentar el valor para que converja más rápido o disminuirlo para evitar el sobreajuste.
Para obtener un análisis de las prácticas recomendadas para el ajuste fino supervisado, consulta la entrada de blog Supervised Fine Tuning for Gemini: A best practices guide.
Visualiza una lista de trabajos de ajuste
Puedes ver una lista de trabajos de ajuste en tu proyecto actual con laGoogle Cloud consola, el SDK de Google Gen AI, el SDK de Vertex AI para Python o mediante el envío de una solicitud GET con el método tuningJobs
.
Console
Para ver tus trabajos de ajuste en la Google Cloud consola, ve a la página Vertex AI Studio.
Tus trabajos de ajuste de Gemini se enumeran en la tabla en la sección Modelos ajustados de Gemini Pro.
Google Gen AI SDK
SDK de Vertex AI para Python
REST
Para ver una lista de trabajos de ajuste de modelos, envía una solicitud GET mediante el método tuningJobs.list
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: .
- TUNING_JOB_REGION: Es la región en la que se ejecuta el trabajo de ajuste. Esta es también la región predeterminada en la que se sube el modelo ajustado.
Método HTTP y URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el siguiente comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
Obtén detalles de un trabajo de ajuste
Puedes obtener los detalles de un trabajo de ajuste en tu proyecto actual con laGoogle Cloud consola, el SDK de Google Gen AI, el SDK de Vertex AI para Python o enviando una solicitud GET con el método tuningJobs
.
Console
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, busca tu modelo y haz clic en Detalles.
Se muestran los detalles de tu modelo.
Google Gen AI SDK
SDK de Vertex AI para Python
REST
Para ver una lista de trabajos de ajuste de modelos, envía una solicitud GET con el método tuningJobs.get
y especifica TuningJob_ID
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: .
- TUNING_JOB_REGION: Es la región en la que se ejecuta el trabajo de ajuste. Esta es también la región predeterminada en la que se sube el modelo ajustado.
- TUNING_JOB_ID: Es el ID del trabajo de ajuste.
Método HTTP y URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el siguiente comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"
PowerShell
Ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
Cancela un trabajo de ajuste
Puedes cancelar un trabajo de ajuste en tu proyecto actual con la consola Google Cloud o el SDK de Vertex AI para Python, o bien enviar una solicitud POST con el método tuningJobs
.
REST
Para ver una lista de trabajos de ajuste de modelos, envía una solicitud GET con el método tuningJobs.cancel
y especifica TuningJob_ID
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: .
- TUNING_JOB_REGION: Es la región en la que se ejecuta el trabajo de ajuste. Esta es también la región predeterminada en la que se sube el modelo ajustado.
- TUNING_JOB_ID: Es el ID del trabajo de ajuste.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"
PowerShell
Ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
SDK de Vertex AI para Python
Console
Para cancelar un trabajo de ajuste en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, haz clic en
Administrar ejecución.Haz clic en Cancelar.
Evalúa el modelo ajustado
Si no configuraste el servicio de evaluación de IA generativa para que se ejecute automáticamente después del trabajo de ajuste, puedes interactuar con el extremo del modelo ajustado de la misma manera que con Gemini básico usando el SDK de Vertex AI para Python o el SDK de IA generativa de Google, o bien enviando una solicitud POST con el método generateContent
.
En el caso de los modelos de pensamiento, recomendamos desactivar el pensamiento o establecer el presupuesto de pensamiento en el mínimo en las tareas ajustadas para obtener un rendimiento óptimo y eficiencia en los costos. Durante el ajuste fino supervisado, el modelo aprende a imitar la verdad fundamental en el conjunto de datos de ajuste, omitiendo el proceso de pensamiento. Por lo tanto, el modelo ajustado puede controlar la tarea sin un presupuesto de razonamiento de manera eficaz.
En el siguiente ejemplo, se le solicita a un modelo la pregunta "¿Por qué el cielo es azul?".
Console
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, selecciona Probar.
Se abrirá una página en la que puedes crear una conversación con tu modelo ajustado.
Google Gen AI SDK
SDK de Vertex AI para Python
from vertexai.generative_models import GenerativeModel
sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name)
print(tuned_model.generate_content(content))
REST
Para probar un modelo ajustado con un mensaje, envía una solicitud POST y
especifica el TUNED_ENDPOINT_ID
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: .
- TUNING_JOB_REGION: Es la región en la que se ejecuta el trabajo de ajuste. Esta es también la región predeterminada en la que se sube el modelo ajustado.
- ENDPOINT_ID: El ID de extremo del modelo ajustado de la API de GET.
- TEMPERATURE:
La temperatura se usa para las muestras durante la generación de respuesta, que se genera cuando se aplican
topP
ytopK
. La temperatura controla el grado de aleatoriedad en la selección de tokens. Las temperaturas más bajas son buenas para los mensajes que requieren una respuesta menos abierta o de creativa, mientras que las temperaturas más altas pueden generar resultados más diversos o creativos. Una temperatura de0
significa que siempre se seleccionan los tokens de probabilidad más alta. En este caso, las respuestas para un mensaje determinado son, en su mayoría, deterministas, pero es posible que haya una pequeña cantidad de variación.Si el modelo muestra una respuesta demasiado genérica, demasiado corta o el modelo proporciona una respuesta de resguardo, intenta aumentar la temperatura.
- TOP_P:
Top-P cambia la manera en la que el modelo selecciona los tokens para el resultado. Los tokens se seleccionan del más probable al menos probable hasta que la suma de sus probabilidades sea igual al valor de Top-P. Por ejemplo, si los tokens A, B y C tienen una probabilidad de 0.3, 0.2 y 0.1, y el valor P superior es
0.5
, el modelo elegirá A o B como el siguiente token mediante la temperatura y excluirá a C como candidato.Especifica un valor más bajo para respuestas menos aleatorias y un valor más alto para respuestas más aleatorias.
- TOP_K:
El parámetro Top-K cambia la manera en la que el modelo selecciona los tokens para el resultado. Un top-K de
1
significa que el siguiente token seleccionado es el más probable entre todos los tokens en el vocabulario del modelo (también llamado decodificación codiciosa), mientras que un top-K de3
significa que el siguiente token se selecciona de los tres tokens más probables con la temperatura.Para cada paso de selección de tokens, se muestran los tokens de K superior con las probabilidades más altas. Luego, los tokens se filtran según el superior con el token final seleccionado mediante el muestreo de temperatura.
Especifica un valor más bajo para respuestas menos aleatorias y un valor más alto para respuestas más aleatorias.
- MAX_OUTPUT_TOKENS:
Cantidad máxima de tokens que se pueden generar en la respuesta. Un token tiene casi cuatro caracteres. 100 tokens corresponden a casi 60 u 80 palabras.
Especifica un valor más bajo para las respuestas más cortas y un valor más alto para las respuestas potencialmente más largas.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent
Cuerpo JSON de la solicitud:
{ "contents": [ { "role": "USER", "parts": { "text" : "Why is sky blue?" } } ], "generation_config": { "temperature":TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "maxOutputTokens": MAX_OUTPUT_TOKENS } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
Borra un modelo ajustado
Para borrar un modelo ajustado, sigue estos pasos:
REST
Llama al método models.delete
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: .
- REGION: Es la región en la que se encuentra el modelo ajustado.
- MODEL_ID: Es el modelo que se borrará.
Método HTTP y URL:
DELETE https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el siguiente comando:
curl -X DELETE \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID"
PowerShell
Ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method DELETE `
-Headers $headers `
-Uri "https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID" | Select-Object -Expand Content
Deberías recibir un código de estado exitoso (2xx) y una respuesta vacía.
SDK de Vertex AI para Python
from google.cloud import aiplatform
aiplatform.init(project=PROJECT_ID, location=LOCATION)
# To find out which models are available in Model Registry
models = aiplatform.Model.list()
model = aiplatform.Model(MODEL_ID)
model.delete()
Ajustes y métricas de validación
Puedes configurar un trabajo de ajuste de modelos para recopilar e informar los ajustes y métricas de evaluación del modelo, que luego se pueden visualizar Vertex AI Studio.
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Ajustar y sintetizar, haz clic en el nombre del modelo ajustado del que deseas ver las métricas.
Las métricas de ajuste aparecen en la pestaña Supervisar.
Métricas de ajuste de modelos
El trabajo de ajuste de modelos recopila automáticamente las siguientes métricas de ajuste para Gemini 2.0 Flash
:
/train_total_loss
: Pérdida del conjunto de datos de ajuste en un paso de entrenamiento/train_fraction_of_correct_next_step_preds
: La precisión del token en un paso de entrenamiento. Una predicción individual consiste en una secuencia de tokens. Esta métrica mide la exactitud de los tokens previstos en comparación con la verdad fundamental del conjunto de datos de ajuste./train_num_predictions
: Cantidad de tokens previstos en un paso de entrenamiento.
Métricas de validación del modelo
Puedes configurar un trabajo de ajuste de modelos para recopilar las siguientes métricas de validación para Gemini 2.0 Flash
:
/eval_total_loss
: La pérdida del conjunto de datos de validación en un paso de validación./eval_fraction_of_correct_next_step_preds
: La precisión del token en un paso de evaluación. Una predicción individual consiste en una secuencia de tokens. Esta métrica mide la exactitud de los tokens previstos en comparación con la verdad fundamental del conjunto de datos de evaluación./eval_num_predictions
Cantidad de tokens previstos en un paso de validación.
Las visualizaciones de métricas están disponibles después de que se inicia el trabajo de ajuste. Se actualizará en tiempo real a medida que avance el ajuste. Si no especificas un conjunto de datos de validación cuando creas el trabajo de ajuste, solo las visualizaciones para las métricas de ajuste están disponibles.
¿Qué sigue?
Obtén información para implementar un modelo de Gemini ajustado.
Para obtener información sobre cómo se puede usar el ajuste supervisado en una solución que compila una base de conocimiento de IA generativa, consulta Solución de inicio rápido: Base de conocimiento de IA generativa.
Aprende a ajustar modelos de IA generativa con el ajuste supervisado de Vertex AI