En esta página se documentan las actualizaciones de producción de la IA generativa en Vertex AI y de Vertex AI Model Garden. Puedes consultar esta página periódicamente para ver si hay funciones nuevas, actualizadas u obsoletas, así como problemas conocidos y correcciones de errores.
29 de marzo del 2024
La infraestructura del modelo MedLM-large se ha actualizado para mejorar la latencia y la estabilidad. Las respuestas del modelo pueden ser ligeramente diferentes.
22 de marzo del 2024
Ahora se pueden usar archivos PDF como entrada para el modelo de lenguaje multimodal Gemini 1.0 Pro Vision. Puedes llamar a las APIs con PDFs directamente o probarlas en Vertex AI Studio. Para obtener más información, consulta Enviar solicitudes de peticiones multimodales con imágenes o PDF.
19 de marzo del 2024
Los modelos Claude 3 Sonnet y Claude 3 Haiku de Anthropic en Vertex AI ya están disponibles para el público general.
Los modelos gestionados Claude 3 Haiku y Claude 3 Sonnet de Anthropic están disponibles en Vertex AI. Para usar un modelo Claude en Vertex AI, envía una solicitud directamente al endpoint de la API de Vertex AI. Para obtener más información, consulta Usar los modelos Claude de Anthropic y las tarjetas de modelo de Claude en Model Garden:
21 de febrero del 2024
Los modelos abiertos de Gemma están disponibles.
Los modelos Gemma, una familia de modelos abiertos y ligeros creados a partir de la misma investigación y tecnología que se utilizaron para crear los modelos Gemini, se pueden ejecutar en tu hardware, dispositivos móviles o servicios alojados. Para obtener más información, consulta Usar los modelos abiertos de Gemma y la tarjeta de Model Garden de Gemma.
15 de febrero del 2024
Modelos Gemini 1.0 Pro y Gemini 1.0 Pro Vision de Vertex AI
Los modelos de lenguaje multimodales Gemini 1.0 Pro y Gemini 1.0 Pro Vision de Vertex AI ya están disponibles a nivel general. También están disponibles en las siguientes regiones: europe-west1, europe-west2, europe-west3, europe-west4 y europe-west9.
Para obtener más información, consulta los siguientes temas:
- Descripción general de la API de Gemini
- Diseño de peticiones multimodales
- Referencia de la API de Gemini en Vertex AI
- Referencia del SDK de Python de Gemini
- Migrar de la API PaLM a la API de Gemini
9 de febrero del 2024
La compatibilidad con vídeos de inserciones multimodales ya está disponible para todos los usuarios
Las inserciones de datos de vídeo ya están disponibles de forma general mediante el modelo de inserción multimodal (multimodalembedding
). Para obtener más información, consulta la documentación del producto.
Esta función tiene un precio en función del modo que utilices. Para obtener más información, consulta los precios.
7 de febrero del 2024
Función
Se han añadido los siguientes modelos:
- Stable Diffusion XL LCM: el modelo de coherencia latente (LCM) mejora la generación de texto a imagen en los modelos de difusión latente, ya que permite crear imágenes de alta calidad más rápido y con menos pasos.
- LLaVA 1.5: despliega modelos de LLaVA 1.5.
- PyTorch-ZipNeRF: el modelo PyTorch-ZipNeRF es una implementación de vanguardia del algoritmo ZipNeRF en el framework Pytorch, diseñada para reconstruir objetos en 3D de forma eficiente y precisa a partir de imágenes en 2D.
- LLaMA 2 (cuantificado): una versión cuantificada de los modelos Llama 2 de Meta.
- WizardLM: WizardLM es un modelo de lenguaje extenso (LLM) desarrollado por Microsoft que se ha ajustado con instrucciones complejas adaptando el método Evol-Instruct.
- WizardCoder: WizardCoder es un modelo de lenguaje extenso (LLM) desarrollado por Microsoft y ajustado con instrucciones complejas mediante la adaptación del método Evol-Instruct al dominio del código.
- AutoGluon: con AutoGluon puedes entrenar y desplegar modelos de aprendizaje automático y aprendizaje profundo de alta precisión para datos tabulares.
- Lama (Large mask inpainting): usa Large Mask Inpainting con convoluciones rápidas de Fourier (FFCs), una pérdida perceptual de campo receptivo alto y máscaras de entrenamiento grandes para el relleno de imágenes robusto a la resolución.
Modificado
- Se ha añadido un botón de ajuste con un solo clic y cuadernos específicos de implementación, ajuste, cuantización y evaluación para Llama 2.
- Se ha añadido un botón de implementación con un solo clic para más de 20 modelos con artefactos de OSS preentrenados, incluidos
Salesforce/blip-image-captioning-base
ytimbrooks/instruct-pix2pix
. - Se ha añadido compatibilidad con CodeLlama 70b en los cuadernos y el botón de implementación con un solo clic.
- Se han añadido cuadernos de ajuste para los modelos de Mistral.
- Se ha añadido la publicación de cuadernos para Stable Video Diffusion Img2Vid XT (con fines de investigación).
12 de enero del 2024
El ajuste de los modelos textembedding-gecko
y textembedding-gecko-multilingual
está disponible en GA.
Puede usar el ajuste supervisado para ajustar el modelo textembedding-gecko
.
Para obtener más información, consulta Ajustar las inserciones de texto.
8 de enero del 2024
AutoSxS evalúa LLMs en paralelo
La herramienta de evaluación automática en paralelo (AutoSxS) está disponible en la versión preliminar para hacer pruebas A/B del rendimiento de tus LLMs o predicciones pregeneradas. Es comparable a los evaluadores humanos, pero más rápida, disponible bajo demanda y más rentable.
5 de enero del 2024
Expansión regional de la IA generativa en Vertex AI
Las funciones de IA generativa en Vertex AI para la predicción por lotes y la evaluación de modelos están disponibles en 12 regiones más Google Cloud .
18 de diciembre del 2023
- Compatibilidad con el ajuste de hiperparámetros y los conjuntos de datos personalizados para los modelos OpenLLaMA mediante el formato de conjunto de datos que se usa en el ajuste supervisado en Vertex AI.
- Compatibilidad con las conversiones de GPTQ para modelos de falcon-instruct.
- Añade modelos latentes coherentes y modelos SDXL-Turbo solo para investigación a los cuadernos de difusión estable XL.
- Añade modelos Mixtral 8x7B en el cuaderno de Mistral.
13 de diciembre del 2023
Modelos Gemini Pro y Gemini Pro Vision de Vertex AI
Los modelos de lenguaje multimodales Gemini Pro y Gemini Pro Vision de Vertex AI están disponibles en vista previa. Para obtener más información, consulta los siguientes temas:
- Descripción general de la API de Gemini
- Diseño de peticiones multimodales
- Referencia de la API de Gemini en Vertex AI
- Referencia del SDK de Python de Gemini
- Migrar de la API PaLM a la API de Gemini
Disponibilidad general de Imagen 2
La versión 005 del modelo de generación de imágenes de Imagen (imagegeneration@005
) está disponible de forma general para las tareas de generación de imágenes. Esta versión del modelo es la predeterminada para las tareas de generación de imágenes. Para obtener más información, consulta la documentación del producto.
Para obtener información general sobre los modelos y las versiones de Imagen, consulta Versiones y ciclo de vida del modelo Imagen.
12 de diciembre del 2023
Modelo de embedding de texto 003 (textembedding-gecko@003
) disponible
Ya está disponible la versión estable actualizada del modelo de base de embeddings de texto, textembedding-gecko@003
. textembedding-gecko@003
ofrece una calidad mejorada en comparación con las versiones estables anteriores,
textembedding-gecko@001
y textembedding-gecko@002
.
Para obtener más información sobre las versiones de los modelos, consulta Versiones y ciclo de vida de los modelos.
8 de diciembre del 2023
Actualización del control de seguridad de la IA generativa en Vertex AI
El control de seguridad Transparencia de acceso (AXT) está disponible para las siguientes funciones:
- Inserciones para la predicción online multimodal
- Predicción online de Imagen en Vertex AI
- Ajuste de Imagen en Vertex AI
6 de diciembre del 2023
Modelos de texto actualizados
Ya está disponible la versión @002
de los modelos de texto, chat, código y chat de código. Las versiones del modelo @002
incluyen respuestas a las peticiones mejoradas.
Los modelos @002
son los siguientes:
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
Para asegurarte de que siempre usas la versión estable del modelo, especifica el identificador del modelo con el número de versión. Por ejemplo, text-bison@002
. Para obtener más información, consulta Versiones y ciclo de vida de los modelos.
5 de diciembre del 2023
Función
La fundamentación de modelos está disponible en la versión preliminar. Usa la fundamentación para conectar los modelos text-bison
y chat-bison
con almacenes de datos no estructurados en Vertex AI Search.
La fundamentación permite que los modelos accedan a la información de los repositorios de datos y la usen para generar respuestas más completas y matizadas.
Para obtener más información, consulta el artículo Información general sobre la fundamentación.
1 de diciembre del 2023
Cambiar
Están disponibles las siguientes actualizaciones de model_garden_name:
- Se han actualizado los ajustes de implementación de modelos predeterminados con GPUs L4, como LLaMA2, falcon-instruct, openllama y los modelos Stable Diffusion 1.5, 2.1 y XL.
- Se admite la optimización de hiperparámetros y los conjuntos de datos personalizados para los modelos LLaMA2 mediante el formato de conjunto de datos que se usa en la optimización supervisada en Vertex AI.
- Configuración recomendada de LoRA y QLoRA para el ajuste de modelos de lenguaje extensos en Vertex AI. Para obtener más información, consulta las recomendaciones de LoRA y QLoRA para LLMs.
- Compatibilidad con las conversiones de AWQ y GPTQ para los modelos LLaMA2 y OpenLLaMA.
- Informes de comparativas de entrenamiento de ViT con PyTorch y JAX, ajuste de hiperparámetros de OpenLLaMA 3b/7b/13b y ajuste y servicio de Stable Diffusion 1.5.
30 de noviembre del 2023
Función
Un tamaño de modelo de PaLM 2 para texto está disponible para el público general (GA). El modelo text-unicorn
ofrece una mejor calidad de respuesta para un conjunto de tareas de razonamiento complejas en comparación con el modelo text-bison
. Para obtener más información, consulta Información del modelo.
17 de noviembre del 2023
La API ComputeToken está disponible en la versión preliminar
La API ComputeToken está disponible en la versión preliminar. Puedes usar esta API para obtener una lista de tokens de una petición determinada. Un token es una forma de representar una secuencia de caracteres habitual que se encuentra en una entrada de texto. Para obtener más información, consulta Obtener una lista de tokens.
10 de noviembre del 2023
IA generativa en Vertex AI
Los controles de seguridad están disponibles para otras funciones de IA generativa en Vertex AI.
3 de noviembre del 2023
Actualizaciones de Model Garden
Función
Se han añadido los siguientes modelos a Model Garden:
- ImageBind: modelo de incrustaciones multimodales.
- Vicuna v1.5: LLM ajustado a partir de llama2.
- OWL-ViT v2: modelo de detección de objetos de vocabulario abierto de SoTA.
- DITO: modelo de detección de objetos de vocabulario abierto de SoTA.
- NLLB: modelo de traducción multilingüe.
- Mistral-7B: LLM de SoTA de tamaño pequeño.
- BioGPT: LLM ajustado para el ámbito biomédico.
- BiomedCILP: modelo fundacional multimodal ajustado para el ámbito biomédico.
Para ver una lista de todos los modelos disponibles, consulta Explorar modelos en Model Garden.
Modificado
- Se ha mejorado el rendimiento del servicio del modelo de lenguaje. Para obtener más información, consulta Servir modelos de lenguaje extenso de software libre de forma eficiente en Model Garden. Los cuadernos de las tarjetas de modelo correspondientes se han actualizado en consecuencia.
- Velocidad de inferencia hasta 2 veces más rápida en comparación con la implementación original para los modelos Stable Diffusion 1.5, 2.1 y XL.
- Se ha mejorado el flujo de trabajo del botón Implementar en todas las tarjetas de modelo compatibles.
- Se han actualizado los cuadernos de Llama2, OpenLlama y Falcon Instruct con las especificaciones de máquina sugeridas para el servicio de modelos y los contenedores de EleutherAI's evaluation harness para la evaluación de modelos.
Nuevas versiones estables de los modelos textembedding-gecko
y textembedding-gecko-multilingual
Las siguientes versiones de modelos estables están disponibles en Generative AI en Vertex AI:
textembedding-gecko@002
textembedding-gecko-multilingual@001
Para obtener más información sobre las versiones de los modelos, consulta Versiones y ciclo de vida de los modelos.
2 de noviembre del 2023
Se puede acceder a la IA generativa en Vertex AI a través de 12 APIs regionales en Norteamérica, Europa y Asia. Las APIs regionales permiten a los clientes controlar dónde se almacenan los datos en reposo.
3 de noviembre del 2023
El ajuste de modelos para chat-bison@001
está disponible para todos los usuarios (GA).
La optimización de chat-bison@001
admite visualizaciones de métricas de TensorBoard. Para obtener más información, consulte Métricas de ajuste y evaluación.
4 de octubre del 2023
El ajuste de modelos para textembedding-gecko
está disponible en la versión preliminar
Puedes usar el ajuste supervisado para ajustar el modelo textembedding-gecko
. Esta función está en versión preliminar.
Para obtener más información, consulta Ajustar las inserciones de texto.
1 de septiembre del 2023
Novedades sobre precios
El precio de text-bison
se ha reducido a 0,0005 USD por cada 1000 caracteres de entrada y salida. Para obtener más información, consulta los precios de Vertex AI.
29 de agosto del 2023
Nuevos modelos de IA generativa en Vertex AI y compatibilidad con más idiomas
La IA generativa en Vertex AI se ha actualizado para incluir nuevos modelos de lenguaje candidatos (modelos más recientes), modelos de lenguaje que admiten tokens de entrada y salida de hasta 32.000, y más idiomas admitidos. Para obtener más información, consulta los modelos disponibles y las versiones y el ciclo de vida de los modelos.
Transmitir respuestas de modelos de IA generativa
La compatibilidad con el streaming de modelos de IA generativa ya está disponible para el público general (GA). Después de enviar una petición, el modelo devuelve tokens de respuesta a medida que se generan, en lugar de esperar a que esté disponible toda la salida.
Los modelos admitidos son los siguientes:
text-bison
chat-bison
code-bison
codechat-bison
Para obtener más información, consulta Enviar respuestas de modelos de IA generativa.
El ajuste supervisado del modelo text-bison
está disponible para todos los usuarios
El ajuste supervisado del modelo text-bison
está disponible para todos los usuarios (GA).
El ajuste del modelo chat-bison
está disponible en la versión preliminar
Puedes usar el ajuste supervisado para ajustar el modelo chat-bison
. Esta función está en versión preliminar.
Para obtener más información, consulta Ajustar modelos de texto.
Nuevo modelo de inserción disponible en la vista previa
Los usuarios de la IA generativa en Vertex AI pueden crear embeddings con un nuevo modelo entrenado en una amplia gama de idiomas distintos del inglés. El modelo está en versión preliminar.
textembedding-gecko-multilingual
Para obtener más información, consulta el artículo Obtener inserciones de texto.
El ajuste de temas y estilos de Imagen ya está disponible para todos los usuarios
Imagen en Vertex AI ofrece las siguientes funciones GA:
- Ajuste del modelo de asunto (ajuste estándar)*
- Ajuste del modelo de estilo*
* Función de acceso restringido.
Para obtener más información sobre Imagen en Vertex AI o sobre cómo acceder a la disponibilidad general restringida, consulta la descripción general de Imagen en Vertex AI.
Ajuste del aprendizaje por refuerzo con retroalimentación humana (RLHF) para text-bison
El modelo básico de generación de texto de IA generativa en Vertex AI (text-bison
) admite el ajuste de RLHF. La función de ajuste de RLHF está en versión preliminar.
Para obtener más información, consulta Usar el ajuste del modelo RLHF.
Compatibilidad con idiomas de las APIs Codey de Vertex AI
Las APIs de Codey de Vertex AI admiten más lenguajes de programación. Para obtener más información, consulta la sección Idiomas de programación admitidos.
Las APIs Codey de Vertex AI admiten el ajuste supervisado
Los modelos de las APIs de Codey de Vertex AI para el chat de código (codechat-bison
) y la generación de código (code-bison
) admiten el ajuste supervisado. La función de ajuste supervisado de los modelos de las APIs de Codey de Vertex AI está en vista previa. Para obtener más información, consulta Ajustar modelos de código.
Evaluación de modelos basada en métricas
Puedes evaluar el rendimiento de los modelos fundacionales y los modelos ajustados con un conjunto de datos de evaluación para la clasificación, la creación de resúmenes, la respuesta a preguntas y la generación de texto en general. Esta función está disponible en (versión preliminar)
Para obtener más información, consulta Evaluar el rendimiento del modelo.
API CountToken disponible en la versión preliminar
La API CountToken está disponible en la versión preliminar. Puedes usar esta API para obtener el recuento de tokens y el número de caracteres facturables de una petición. Para obtener más información, consulta Obtener el recuento de tokens.
9 de agosto del 2023
Disponibilidad general de las incrustaciones multimodales de Imagen
Imagen en Vertex AI ofrece la siguiente función GA:
- Incrustaciones multimodales
Esta función tiene precios diferentes en función de si usas la entrada de imágenes o la entrada de texto. Para obtener más información, consulta la página de la función incrustaciones multimodales.
21 de agosto del 2023
Actualización de parámetros de ajuste de modelos
Los trabajos de ajuste de modelos aceptan parámetros opcionales para la evaluación de modelos y la integración de Vertex AI TensorBoard. Esto le permite evaluar su modelo y generar visualizaciones con un solo comando. Para obtener más información, consulta Crear un trabajo de ajuste de modelo.
28 de julio del 2023
Actualización de parámetros de ajuste de modelos
El parámetro learning_rate
en el ajuste del modelo es learning_rate_multiplier
.
Para usar la tasa de aprendizaje predeterminada del modelo o del método de ajuste, usa el valor predeterminado learning_rate_multiplier
de 1.0
.
Si no has configurado learning_rate
antes, no tienes que hacer nada.
Si usas tuning_method=tune_v2
con la plantilla de flujo de procesamiento v2.0.0 (SDK de Python v1.28.1 o posterior), la tasa de aprendizaje recomendada es 0,0002. Para convertir tu learning_rate
personalizado en learning_rate_multiplier
, haz el siguiente cálculo:
learing_rate_multiplier = custom_learning_rate_value / 0.0002
18 de julio del 2023
Actualizaciones de la optimización de modelos para text-bison
- La actualización de la canalización de ajuste ofrece un ajuste más eficiente y un mejor rendimiento en text-bison.
- Nueva región de ajuste (
us-central1
) disponible con compatibilidad con GPU. - El nuevo parámetro
learning_rate
te permite ajustar el tamaño del paso en cada iteración.
Para obtener más información, consulta Ajustar modelos básicos de lenguaje.
Chirp GA
Chirp está disponible para todos los usuarios. Para obtener más información, consulta las siguientes páginas:
17 de julio del 2023
Funciones de Imagen en Vertex AI disponibles para todos los usuarios
Imagen en Vertex AI ofrece las siguientes funciones GA:
- Generación de imágenes (de texto a imagen)*
- Edición de imágenes*
- Descripción visual de imágenes
- Visual Question Answering (VQA)
* Función de acceso restringido.
Para obtener más información sobre Imagen o sobre cómo acceder a las funciones de disponibilidad general o de vista previa restringidas, consulta la descripción general de Imagen en Vertex AI.
Generación de caras humanas admitida
Imagen admite la generación de caras humanas para las siguientes funciones:
* Función de acceso restringido.
La generación de caras humanas está habilitada de forma predeterminada, excepto en las imágenes de niños o famosos. Para obtener más información, consulta las directrices de uso.
Compatibilidad con más idiomas
La API PaLM de Vertex AI ahora admite los siguientes idiomas:
- Español (es)
- Coreano (ko)
- Hindi (hi)
- Chino (zh)
Para ver la lista completa de idiomas admitidos, consulta Idiomas admitidos.
13 de julio del 2023
Compatibilidad con lotes de PaLM 2 para texto
La función para organizar solicitudes de texto por lotes (text-bison
)
está disponible en la versión GA.
Puedes consultar los precios del modelo chat-bison
en la página de precios de Vertex AI.
10 de julio del 2023
PaLM 2 para chat
La asistencia para Chat (chat-bison
)
está disponible en (GA).
Puedes consultar los precios del modelo chat-bison
en la página de precios de Vertex AI.
29 de junio del 2023
APIs de Vertex AI Codey
Las APIs Codey de Vertex AI ya están disponibles para el público general (GA). Usa las APIs de Codey de Vertex AI para crear soluciones con generación, finalización y chat de código. Como las APIs de Codey de Vertex AI están disponibles de forma general, se te cobrará por usarlas. Para obtener información sobre los precios, consulta la página de precios de la IA generativa en Vertex AI.
Los modelos de esta versión incluyen lo siguiente:
code-bison
(generación de código)codechat-bison
(chat de código)code-gecko
(finalización de código)
El número máximo de tokens de entrada se ha aumentado de 4096 a 6144 tokens para code-bison
y codechat-bison
para permitir peticiones y un historial de chat más largos. El número máximo de tokens de salida se ha aumentado de 1024 a 2048 para code-bison
y codechat-bison
para permitir respuestas más largas.
Se admiten otros lenguajes de programación. Para obtener más información, consulta Idiomas de programación admitidos.
Se han retirado varios conjuntos de datos de ajuste fino de los modelos code-bison
y codechat-bison
para implementar las siguientes mejoras:
- Hablar demasiado.
- Artefactos, como caracteres de espacio de no separación ( ).
- Respuestas de código de baja calidad.
Para obtener información sobre las certificaciones horizontales de la nube, consulta las certificaciones de Vertex AI.
15 de junio del 2023
PaLM 2 para chat
El modelo chat-bison
se ha actualizado para seguir mejor las instrucciones del campo context
. Para obtener más información sobre cómo crear peticiones de chat para
chat-bison
, consulta el artículo sobre cómo
diseñar peticiones de chat.
7 de junio del 2023
APIs PaLM Text y Embeddings, y Vertex AI Studio
La IA generativa en Vertex AI está disponible en (GA).
Con este lanzamiento, puedes usar la API PaLM de Vertex AI para generar modelos de IA que puedes probar, ajustar y desplegar en tus aplicaciones basadas en IA.
Como estas funciones están disponibles de forma general, se te cobrará por el uso de las APIs text-bison
y textembedding-gecko
de PaLM. Para obtener información sobre los precios, consulta la página de precios de Vertex AI.
Las funciones y los modelos de esta versión incluyen lo siguiente:
- PaLM 2 para texto:
text-bison
- Embedding de texto:
textembedding-gecko
- Vertex AI Studio para el lenguaje
Model Garden
Model Garden está disponible para el GA. Model Garden es una plataforma que te ayuda a descubrir, probar, personalizar y desplegar Vertex AI, así como a seleccionar modelos de código abierto. Estos modelos van desde los que se pueden ajustar hasta los que están diseñados para tareas específicas, y todos están disponibles en la página Model Garden de laGoogle Cloud consola.
Para empezar, consulta Descubrir modelos de IA y APIs en Model Garden.
APIs de Vertex AI Codey
Las APIs Codey de Vertex AI están en vista previa.
Con las APIs de Codey, las APIs de generación, finalización y chat de código se pueden usar desde cualquierGoogle Cloud proyecto sin necesidad de incluirlo en una lista de permitidos. Se puede acceder a las APIs desde la región us-central1
. Las APIs de Codey se pueden usar en Vertex AI Studio o de forma programática en comandos REST.
Para empezar, consulta la información general sobre los modelos de código.
10 de mayo del 2023
IA generativa en Vertex AI
La IA generativa en Vertex AI está disponible en versión preliminar. Con este lanzamiento, puedes usar la API PaLM de Vertex AI para generar modelos de IA que puedes probar, ajustar y desplegar en tus aplicaciones basadas en IA.
Las funciones y los modelos de esta versión incluyen lo siguiente:
- PaLM 2 para texto:
text-bison
- PaLM 2 para chat:
chat-bison
- Embedding de texto:
textembedding-gecko
- Vertex AI Studio para el lenguaje
- Ajuste de PaLM 2
- SDK de Vertex AI v1.25, que incluye nuevas funciones, como TextGenerationModel (
text-bison
), ChatModel (chat-bison
) y TextEmbeddingModel (textembedding-gecko@001
)
Puedes interactuar con las funciones de IA generativa de Vertex AI mediante Vertex AI Studio en la Google Cloud consola, la API Vertex AI y el SDK de Vertex AI para Python.
- Consulta más información sobre Generative AI en Vertex AI.
- Consulta la introducción a Vertex AI Studio.
- Empieza con una guía de inicio rápido de Vertex AI Studio.
Model Garden
Model Garden está disponible en versión preliminar. Model Garden es una plataforma que te ayuda a descubrir, probar, personalizar y desplegar Vertex AI, así como a seleccionar modelos de código abierto. Estos modelos van desde los que se pueden ajustar hasta los que están diseñados para tareas específicas. Todos están disponibles en la página Model Garden de laGoogle Cloud consola.