Model Garden es una plataforma que te ayuda a descubrir, probar, personalizar e implementar Vertex AI, y seleccionar modelos y recursos de OSS. Para explorar los modelos y las APIs de IA que están disponibles en Vertex AI, ve a Model Journal en la consola de Google Cloud.
En los siguientes temas, se presentan los modelos de IA disponibles en Model Journal y cómo usarlos.
Explora modelos
Para ver la lista de modelos disponibles de Vertex AI y de bases de código abierto, ajustables y específicos para tareas, ve a la página Model Garden en la consola de Google Cloud.
Las categorías de modelos disponibles en Model Journal son las siguientes:
Categoría | Descripción |
---|---|
Modelos de base | Modelos grandes multitarea previamente entrenados que se pueden ajustar o personalizar para tareas específicas mediante Generative AI Studio, la API de Vertex AI y el SDK de Vertex AI para Python. |
Modelos ajustables | Modelos que puedes ajustar mediante un notebook o una canalización personalizados. |
Soluciones específicas para tareas | La mayoría de estos modelos precompilados están listos para usarse. Muchos se pueden personalizar con tus propios datos. |
Para filtrar modelos en el panel de filtros, especifica lo siguiente:
- Modelos: Haz clic en el tipo de modelo que quieras.
- Tareas: Haz clic en la tarea que deseas que realice el modelo.
- Atributos: Haz clic en los atributos que desees en el modelo.
Para obtener más información sobre cada modelo, haz clic en la tarjeta del modelo.
Lista de modelos con ajuste de código abierto o recetas de entrega en Vertex AI
En la siguiente tabla, se enumeran los modelos que admiten el ajuste de código abierto o las recetas de entrega en Vertex AI:
Nombre del modelo | Modalidad | Descripción | Guía de inicio rápido |
---|---|---|---|
Llama 2 | Lenguaje | Ajusta e implementa los modelos de base Llama 2 de Meta (7B, 13B, 70B) en Vertex AI. | Tarjeta de modelo |
Code Llama | Lenguaje | Implementa modelos de base de Code Llama de Meta (7B, 13B, 34B) en Vertex AI. | Tarjeta de modelo |
Falcon-instruct | Lenguaje | Ajusta e implementa modelos de Falcon-Instruct (7B, 40B) mediante PEFT. | Colab Tarjeta de modelo |
OpenLLaMA | Lenguaje | Ajusta e implementa modelos de OpenLLaMA (3B, 7B, 13B) con PEFT. | Colab Tarjeta de modelo |
T5-FLAN | Lenguaje | Ajusta e implementa T5-FLAN (base, pequeño y grande). | Tarjeta de modelo (se incluye la canalización de ajuste) |
BERT | Lenguaje | Ajusta e implementa BERT mediante PEFT. | Colab Tarjeta de modelo |
BART-large-cnn | Lenguaje | Implementa BART, un modelo codificador/codificador (seq2seq) de transformador con un codificador bidireccional (similar a BERT) y un decodificador automático (similar a GPT). | Colab Tarjeta de modelo |
RoBERTa-large | Lenguaje | Ajusta e implementa RoBERTa-large con PEFT. | Colab Tarjeta de modelo |
XLM-RoBERTa-large | Lenguaje | Ajusta e implementa XLM-RoBERTa-large (una versión multilingüe de RoBERTa) mediante PEFT. | Colab Tarjeta de modelo |
Dolly-v2-7b | Lenguaje | Implementa Dolly-v2-7b, un modelo grande de lenguaje que sigue instrucciones con 6.9 mil millones de parámetros. | Colab Tarjeta de modelo |
Stable Diffusion XL v1.0 | Lenguaje, Vision | Implementa Stable Diffusion XL v1.0, que admite la generación de texto a imagen. | Colab Tarjeta de modelo |
Stable Diffusion v2.1 | Lenguaje, Vision | Ajusta e implementa Stable Diffusion v2.1 (admite la generación de texto a imagen) mediante Dreambooth. | Colab Tarjeta de modelo |
Stable Diffusion 4x upscaler | Lenguaje, Vision | Implementa Stable Diffusion 4x upscaler, que admite la superresolución de imagen condicionada por texto. | Colab Tarjeta de modelo |
InstructPix2Pix | Lenguaje, Vision | Implementa InstructPix2Pix, que admite la edición de imágenes mediante un mensaje de texto. | Colab Tarjeta de modelo |
Retoque de dispersión estable | Lenguaje, Vision | Ajusta e implementa Stable Diffusion Inpainting, que admite completar una imagen enmascarada mediante una instrucción de texto. | Colab Tarjeta de modelo |
SAM | Lenguaje, Vision | Implementa Segment Anything, que admite la segmentación de imágenes sin tomas. | Colab Tarjeta de modelo |
Texto a video (ModelScope) | Lenguaje, Vision | Implementa texto a video de ModelScope, que admite la generación de texto a video. | Colab Tarjeta de modelo |
Texto a video sin tomas | Lenguaje, Vision | Implementa generadores de texto a video de Stable Diffusion que admitan la generación de texto a video sin tomas. | Colab Tarjeta de modelo |
Recuperación de imágenes compuestas de Pic2Word | Lenguaje, Vision | Implementa Pic2Word, que admite la recuperación de imágenes multimodales compuestas. | Colab Tarjeta de modelo |
BLIP2 | Lenguaje, Vision | Implementa BLIP2, que admite los subtítulos de imágenes y la respuesta visual a preguntas. | Colab Tarjeta de modelo |
Open-CLIP | Lenguaje, Vision | Ajusta e implementa Open-CLIP, que admite una clasificación sin tomas. | Colab Tarjeta de modelo |
F-VLM | Lenguaje, Vision | Implementa F-VLM, que admite la detección de objetos de imagen de vocabulario abierto. | Colab Tarjeta de modelo |
tfhub/EfficientNetV2 | Vision | Ajusta y realiza la implementación de Tensorflow Vision del modelo de clasificación de imágenes EfficientNetV2. | Colab Tarjeta de modelo |
EfficientNetV2 (TIMM) | Vision | Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes EfficientNetV2. | Colab Tarjeta de modelo |
Patentado/EfficientNetV2 | Vision | Ajusta y, luego, implementa el punto de control propiedad de Google del modelo de clasificación de imágenes EfficientNetV2. | Colab Tarjeta de modelo |
EfficientNetLite (MediaPipe) | Vision | Ajusta el modelo de clasificación de imágenes EfficientNetLite a través del creador de modelos MediaPipe. | Colab Tarjeta de modelo |
tfvision/vit | Vision | Ajusta y realiza la implementación de Tensorflow Vision del modelo de clasificación de imágenes ViT. | Colab Tarjeta de modelo |
ViT (TIMM) | Vision | Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes ViT. | Colab Tarjeta de modelo |
Patentado/ViT | Vision | Ajusta y, luego, implementa el punto de control propiedad de Google del modelo de clasificación de imágenes ViT. | Colab |