Descripción general de Model Garden

Model Journal en la consola de Google Cloud es una biblioteca de modelo de AA que te ayuda a descubrir, probar, personalizar e implementar los modelos y recursos seleccionados de OSS y propios de Google.

En los siguientes temas, se presentan los modelos de IA disponibles en Model Garden y cómo usarlos.

Explora modelos

Para ver la lista de Vertex AI disponibles y los modelos específicos para tareas, ajustables y de base de código abierto, ve a la página Model Garden en la consola de Google Cloud.

Ir a Model Garden

Las categorías de modelos disponibles en Model Garden son las siguientes:

Categoría Descripción
Modelos de base Modelos grandes multitarea previamente entrenados que se pueden ajustar o personalizar para tareas específicas mediante Generative AI Studio, la API de Vertex AI y el SDK de Vertex AI para Python.
Modelos ajustables Modelos que puedes ajustar mediante un notebook o una canalización personalizados.
Soluciones específicas para tareas La mayoría de estos modelos precompilados están listos para usar. Muchos se pueden personalizar con tus propios datos.

Para filtrar modelos en el panel de filtro, especifica lo siguiente:

  • Modalidades: haz clic en las modalidades (tipos de datos) que deseas en el modelo.
  • Tareas: haz clic en la tarea que deseas que realice el modelo.
  • Atributos: Haz clic en los atributos que desees en el modelo.

Para obtener más información sobre cada modelo, haz clic en la tarjeta del modelo.

Modelos disponibles en Model Garden

Puedes encontrar los modelos originales de Google y seleccionar modelos de código abierto en Model Garden.

Lista de modelos originales de Google

En la siguiente tabla, se enumeran los modelos originales de Google que están disponibles en Model Garden:

Nombre del modelo Modalidad Descripción Guías de inicio rápido
Gemini 1.5 Flash Lenguaje, audio, visión El modelo multimodal de Gemini más rápido y rentable. Se diseñó para tareas de gran volumen y aplicaciones asequibles sensibles a la latencia. Debido a la capacidad de respuesta de Gemini 1.5 Flash, es una buena opción para crear asistentes de chat y aplicaciones de generación de contenido a pedido. Tarjeta de modelo
Gemini 1.5 Pro Lenguaje, audio, visión Modelo multimodal que admite agregar archivos de imagen, audio, video y PDF en instrucciones de texto o chat para una respuesta de texto o código. Tarjeta de modelo
Gemini 1.0 Pro Idioma Diseñada para controlar tareas de lenguaje natural, chat de texto y código de varios turnos, y generación de código. Tarjeta de modelo
Gemini 1.0 Pro Vision Lenguaje, Vision Modelo multimodal que admite agregar archivos de imagen, video y PDF en instrucciones de texto o chat para una respuesta de texto o código. Tarjeta de modelo
PaLM 2 for Text Idioma Se ajustó para seguir las instrucciones de lenguaje natural y es adecuado para una variedad de tareas de lenguaje. Tarjeta de modelo
PaLM 2 para Chat Idioma Ajustado para tener conversaciones naturales Usa este modelo para compilar y personalizar tu propia aplicación de chatbot. Tarjeta de modelo
Codey para completar código Idioma Genera código en función de los mensajes del código. Ideal para sugerencias de código y minimización de errores en el código. Tarjeta de modelo
Codey for Code Generation Idioma Genera código basado en entradas de lenguaje natural. Ideal para escribir funciones, clases, pruebas de unidades y mucho más. Tarjeta de modelo
Codey para Chat de código Idioma Obtén asistencia relacionada con el código a través de una conversación natural. Ideal para preguntas sobre una API, sintaxis en un lenguaje compatible y más. Tarjeta de modelo
Incorporaciones para texto Idioma Convierte datos textuales en vectores numéricos que pueden procesar los algoritmos de aprendizaje automático, en especial, modelos grandes. Tarjeta de modelo
Imagen para la generación de imágenes Vision Crea o edita imágenes a nivel de estudio a gran escala con mensajes de texto. Tarjeta de modelo
Segmentación de imágenes de Vertex (versión preliminar) Vision Usa instrucciones de texto o dibuja garabatos para segmentar una imagen. La segmentación de imágenes te permite, por ejemplo, detectar objetos, quitar el fondo de una imagen o segmentar el primer plano de una imagen. Tarjeta de modelo
Imagen para subtítulos y VQA Idioma Genera una descripción relevante para una imagen determinada. Tarjeta de modelo
Incorporaciones para multimodales Vision Genera vectores basados en imágenes, que se pueden usar para tareas descendentes, como la clasificación de imágenes y la búsqueda de imágenes. Tarjeta de modelo
Chirp Voz Una versión de un modelo de voz universal que tiene más de 2B de parámetros y puede transcribir en más de 100 idiomas en un solo modelo. Tarjeta de modelo

Lista de modelos con ajuste de código abierto o recetas de entrega en Model Garden

En la siguiente tabla, se enumeran los modelos de OSS que admiten el ajuste de código abierto o las recetas de entrega en Model Garden:

Nombre del modelo Modalidad Descripción Guía de inicio rápido
Flux Vision Un modelo de transformador de flujo rectificado de 12,000 millones de parámetros que genera imágenes de alta calidad a partir de descripciones de texto. Tarjeta de modelo
Prompt Guard Idioma Protege las entradas de LLM contra técnicas de jailbreak y de inyección indirecta. Tarjeta de modelo
Llama 3.2 Idioma Una colección de modelos grandes de lenguaje multilingües que son modelos generativos previamente entrenados y ajustados por instrucciones en tamaños de 1,000 y 3,000 millones. Tarjeta de modelo
Llama 3.2-Vision Lenguaje, Vision Una colección de modelos grandes de lenguaje multimodal que son modelos generativos de razonamiento de imágenes preentrenados y ajustados a instrucciones en 11B y 90B de tamaño. Estos modelos están optimizados para el reconocimiento visual, el razonamiento de imágenes, la creación de leyendas y la respuesta a preguntas generales sobre una imagen. Tarjeta de modelo
Llama Guard 3 Idioma Un modelo previamente entrenado de Llama-3.1-8B que se ajustó con precisión para la clasificación de seguridad del contenido Tarjeta de modelo
Qwen2 Idioma Implementa Qwen2, una serie de modelos grandes de lenguaje de base. Colab
Tarjeta de modelo
Phi-3 Idioma Implementa Phi-3, una serie de modelos grandes de lenguaje de base. Colab
Tarjeta de modelo
E5 Lenguaje Implementa E5, una serie de modelos de embedding de texto. Colab
Tarjeta de modelo
ID instantáneo Lenguaje, Vision Implementa ID instantáneo, un modelo de generación de texto a imagen que preserva la identidad. Colab
Tarjeta de modelo
Llama 3 Idioma Explora y compila con los modelos Llama 3 de Meta (8B, 70B, 405B) en Vertex AI. Tarjeta de modelo
Gemma 2 Idioma Modelos de ponderación abierta (9B, 27B) que se compilan a partir de la misma investigación y tecnología que se usaron para crear los modelos Gemini de Google. Tarjeta de modelo
Gemma lenguaje Modelos de peso abierto (2B, 7B) que se compilan a partir de la misma investigación y tecnología que se usaron para crear los modelos Gemini de Google. Tarjeta de modelo
CodeGemma lenguaje Modelos de ponderación abierta (2B, 7B) diseñados para la generación y finalización de código que se compilan a partir de la misma investigación y tecnología que se usaron para crear los modelos Gemini de Google. Tarjeta de modelo
PaliGemma Lenguaje Modelo de peso abierto 3B diseñado para tareas de leyendas de imágenes y tareas visuales de preguntas y respuestas que se compilan a partir de la misma investigación y tecnología que se usan para crear los modelos Gemini de Google. Tarjeta de modelo
Vicuna v1.5 lenguaje Implementa modelos de series de Vicuna v1.5, que son modelos de base más precisos de LLama2 para la generación de texto. Tarjeta de modelo
NLLB lenguaje Implementa modelos de series de nllb para la traducción a varios idiomas. Tarjeta de modelo
Colab
Mistral-7B lenguaje Implementar Mistral-7B, un modelo de base para la generación de texto. Tarjeta de modelo
BioGPT lenguaje Implementa BioGPT, un modelo generativo de texto para el dominio biomédico. Tarjeta de modelo
Colab
BiomedCLIP Lenguaje, Vision Implementa BiomedCLIP, un modelo de base multimodal para el dominio biomédico. Tarjeta de modelo
Colab
ImageBind Lenguaje, Vision,
Audio
Implementa ImageBind, un modelo de base para la incorporación multimodal. Tarjeta de modelo
Colab
DITO Lenguaje, Vision Ajusta e implementa DITO, un modelo de base multimodal para tareas de detección de objetos de vocabulario abierto. Tarjeta de modelo
Colab
OWL-ViT v2 Lenguaje, Vision Implementa OWL-ViT v2, un modelo de base multimodal para tareas de detección de objetos de vocabulario abierto. Tarjeta de modelo
Colab
FaceStylizer (Mediapipe) Visión Una canalización generativa para transformar imágenes de rostros humanos y darles un estilo nuevo. Tarjeta de modelo
Colab
Llama 2 lenguaje Ajusta e implementa los modelos de base Llama 2 de Meta (7B, 13B, 70B) en Vertex AI. Tarjeta de modelo
Code Llama lenguaje Implementa modelos de base de Code Llama de Meta (7B, 13B, 34B) en Vertex AI. Tarjeta de modelo
Falcon-instruct lenguaje Ajusta e implementa modelos de Falcon-Instruct (7B, 40B) mediante PEFT. Colab
Tarjeta de modelo
OpenLLaMA lenguaje Ajusta e implementa modelos de OpenLLaMA (3B, 7B, 13B) con PEFT. Colab
Tarjeta de modelo
T5-FLAN lenguaje Ajusta e implementa T5-FLAN (base, pequeño y grande). Tarjeta de modelo (se incluye la canalización de ajuste)
BERT lenguaje Ajusta e implementa BERT mediante PEFT. Colab
Tarjeta de modelo
BART-large-cnn lenguaje Implementa BART, un modelo codificador/codificador (seq2seq) de transformador con un codificador bidireccional (similar a BERT) y un decodificador automático (similar a GPT). Colab
Tarjeta de modelo
RoBERTa-large lenguaje Ajusta e implementa RoBERTa-large con PEFT. Colab
Tarjeta de modelo
XLM-RoBERTa-large lenguaje Ajusta e implementa XLM-RoBERTa-large (una versión multilingüe de RoBERTa) mediante PEFT. Colab
Tarjeta de modelo
Dolly-v2-7b lenguaje Implementa Dolly-v2-7b, un modelo grande de lenguaje que sigue instrucciones con 6.9 mil millones de parámetros. Colab
Tarjeta de modelo
Stable Diffusion XL v1.0 Lenguaje, Vision Implementa Stable Diffusion XL v1.0, que admite la generación de texto a imagen. Colab
Tarjeta de modelo
Stable Diffusion XL Lightning Lenguaje, Vision Implementa Stable Diffusion XL Lightning, un modelo de generación de texto a imagen. Colab
Tarjeta de modelo
Stable Diffusion v2.1 Lenguaje, Vision Ajusta e implementa Stable Diffusion v2.1 (admite la generación de texto a imagen) mediante Dreambooth. Colab
Tarjeta de modelo
Stable Diffusion 4x upscaler Lenguaje, Vision Implementa Stable Diffusion 4x upscaler, que admite la superresolución de imagen condicionada por texto. Colab
Tarjeta de modelo
InstructPix2Pix Lenguaje, Vision Implementa InstructPix2Pix, que admite la edición de imágenes mediante un mensaje de texto. Colab
Tarjeta de modelo
Retoque de difusión estable Lenguaje, Vision Ajusta e implementa Stable Diffusion Inpainting, que admite completar una imagen enmascarada mediante una instrucción de texto. Colab
Tarjeta de modelo
SAM Lenguaje, Vision Implementa Segment Anything, que admite la segmentación de imágenes sin tomas. Colab
Tarjeta de modelo
Texto a video (ModelScope) Lenguaje, Vision Implementa texto a video de ModelScope, que admite la generación de texto a video. Colab
Tarjeta de modelo
Recuperación de imágenes compuestas de Pic2Word Lenguaje, Vision Implementa Pic2Word, que admite la recuperación de imágenes multimodales compuestas. Colab
Tarjeta de modelo
BLIP2 Lenguaje, Vision Implementa BLIP2, que admite los subtítulos de imágenes y la respuesta visual a preguntas. Colab
Tarjeta de modelo
Open-CLIP Lenguaje, Vision Ajusta e implementa Open-CLIP, que admite una clasificación sin tomas. Colab
Tarjeta de modelo
F-VLM Lenguaje, Vision Implementa F-VLM, que admite la detección de objetos de imagen de vocabulario abierto. Colab
Tarjeta de modelo
tfhub/EfficientNetV2 Visión Ajusta y realiza la implementación de Tensorflow Vision del modelo de clasificación de imágenes EfficientNetV2. Colab
Tarjeta de modelo
EfficientNetV2 (TIMM) Visión Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes EfficientNetV2. Colab
Tarjeta de modelo
Patentado/EfficientNetV2 Visión Ajusta y, luego, implementa el punto de control propiedad de Google del modelo de clasificación de imágenes EfficientNetV2. Colab
Tarjeta de modelo
EfficientNetLite (MediaPipe) Visión Ajusta el modelo de clasificación de imágenes EfficientNetLite a través del creador de modelos MediaPipe. Colab
Tarjeta de modelo
tfvision/vit Visión Ajusta y realiza la implementación de TensorFlow Vision del modelo de clasificación de imágenes ViT. Colab
Tarjeta de modelo
ViT (TIMM) Visión Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes ViT. Colab
Tarjeta de modelo
Patentado/ViT Visión Ajusta y, luego, implementa el punto de control propiedad de Google del modelo de clasificación de imágenes ViT. Colab
Tarjeta de modelo
Patentado/MaxViT Visión Ajusta e implementa el punto de control propiedad de Google del modelo de clasificación de imágenes híbrido (CNN + ViT) de MaxViT. Colab
Tarjeta de modelo
ViT (JAX) Visión Ajusta y realiza la implementación de JAX del modelo de clasificación de imágenes ViT. Colab
Tarjeta de modelo
tfvision/SpineNet Visión Ajusta y realiza la implementación de Tensorflow Vision del modelo de detección de objetos de SpineNet. Colab
Tarjeta de modelo
Patentado/Spinenet Visión Ajusta e implementa el punto de control propiedad de Google del modelo de detección de objetos SpineNet. Colab
Tarjeta de modelo
tfvision/YOLO Visión Ajusta y realiza la implementación de TensorFlow Vision del modelo de detección de objetos de una etapa de YOLO. Colab
Tarjeta de modelo
Patentado/YOLO Visión Ajusta e implementa el punto de control propiedad de Google del modelo de detección de objetos de una etapa de YOLO. Colab
Tarjeta de modelo
YOLOv8 (Keras) Visión Ajusta y realiza la implementación de Keras del modelo YOLOv8 para la detección de objetos. Colab
Tarjeta de modelo
tfvision/YOLOv7 Visión Ajusta e implementa el modelo YOLOv7 para la detección de objetos. Colab
Tarjeta de modelo
Seguimiento de objetos de video de ByteTrack Visión Ejecuta la predicción por lotes para el seguimiento de objetos de video con el dispositivo de rastreo de ByteTrack. Colab
Tarjeta de modelo
ResNeSt (TIMM) Visión Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes ResNeSt. Colab
Tarjeta de modelo
ConvNeXt (TIMM) Visión Ajusta e implementa ConvNeXt, un modelo convolucional puro para la clasificación de imágenes inspirado en el diseño de transformadores de Vision. Colab
Tarjeta de modelo
CspNet (TIMM) Visión Ajusta e implementa el modelo de clasificación de imágenes CSPNet (Cross Stage Partial Network). Colab
Tarjeta de modelo
Inception (TIMM) Visión Ajusta e implementa el modelo de clasificación de imágenes de Inception. Colab
Tarjeta de modelo
DeepLabv3+ (con punto de control) Visión Ajusta e implementa el modelo DeepLab-v3 Plus para la segmentación semántica de imágenes. Colab
Tarjeta de modelo
Faster R-CNN (Detectron2) Visión Ajusta y realiza la implementación de Detectron2 del modelo R-CNN más rápido para la detección de objetos de imagen. Colab
Tarjeta de modelo
RetinaNet (Detectron2) Visión Ajusta y realiza la implementación de Detectron2 del modelo RetinaNet para la detección de objetos de imagen. Colab
Tarjeta de modelo
Mask R-CNN (Detectron2) Visión Ajusta y realiza la implementación de Detectron2 del modelo Mask R-CNN para la detección y segmentación de objetos de imagen. Colab
Tarjeta de modelo
ControlNet Visión Ajusta e implementa el modelo de generación de texto a imagen de ControlNet. Colab
Tarjeta de modelo
MobileNet (TIMM) Visión Ajusta y realiza la implementación de PyTorch del modelo de clasificación de imágenes de MobileNet. Colab
Tarjeta de modelo
Clasificación de imágenes de MobileNetV2 (MediaPipe) Visión Ajusta el modelo de clasificación de imágenes de MobileNetV2 mediante el creador de modelos MediaPipe. Colab
Tarjeta de modelo
Detección de objetos de MobileNetV2 (MediaPipe) Visión Ajusta el modelo de detección de objetos MobileNetV2 mediante el creador de modelos MediaPipe. Colab
Tarjeta de modelo
MobileNet-MultiHW-AVG (MediaPipe) Visión Ajusta el modelo de detección de objetos MobileNet-MultiHW-AVG con el creador de modelos MediaPipe. Colab
Tarjeta de modelo
DeiT Visión Ajusta e implementa el modelo DeiT (transformadores de imagen eficientes en el uso de datos) para la clasificación de imágenes. Colab
Tarjeta de modelo
BEiT Visión Ajusta e implementa el modelo BEiT (Representación de codificador bidireccional de transformadores de imágenes) para la clasificación de imágenes. Colab
Tarjeta de modelo
Reconocimiento de gestos manuales (MediaPipe) Visión Ajusta e implementa en el dispositivo los modelos de reconocimiento de gestos manuales mediante MediaPipe. Colab
Tarjeta de modelo
Average Word Embedding Classifier (MediaPipe) Visión Ajusta e implementa los modelos de Average Word Embedding Classifier en el dispositivo mediante MediaPipe. Colab
Tarjeta de modelo
MobileBERT Classifier (MediaPipe) Visión Ajusta e implementa los modelos de MobileBERT Classifier en el dispositivo mediante MediaPipe. Colab
Tarjeta de modelo
Clasificación de clips de video de MoViNet Video Ajusta e implementa los modelos de clasificación de clips de video de MoViNet. Colab
Tarjeta de modelo
Reconocimiento de acciones de video de MoViNet Video Ajusta e implementa modelos de MoViNet para la inferencia de reconocimiento de acciones. Colab
Tarjeta de modelo
LCM de Stable Diffusion XL Vision Implementa este modelo que usa el modelo de consistencia latente (LCM) para mejorar la generación de texto a imagen en los modelos de difusión latentes, ya que permite crear imágenes más rápido y de alta calidad con menos pasos. Colab
Tarjeta de modelo
LLaVA 1.5 Visión, lenguaje Implementa modelos de LLaVA 1.5. Colab
Tarjeta de modelo
Pytorch-ZipNeRF Visión, video Entrena el modelo Pytorch-ZipNeRF, que es una implementación de vanguardia del algoritmo ZipNeRF en el framework de Pytorch, diseñado para una reconstrucción 3D eficiente y precisa a partir de imágenes 2D. Colab
Tarjeta de modelo
Mixtral Idioma Implementa el modelo Mixtral, que es un modelo de lenguaje grande (LLM) de mezcla de expertos (MoE) que desarrolla Mistral AI. Tarjeta de modelo
Llama 2 (cuantizado) lenguaje Ajusta y, luego, implementa una versión cuantizada de los modelos Llama 2 de Meta. Colab
Tarjeta de modelo
LaMa (retoque de máscara grande) Vision Implementa LaMa que usa convoluciones rápidas de Fourier rápidas (FFC), una pérdida perceptiva alta de campo receptivo y máscaras de entrenamiento grandes que permiten retoques de imágenes con resolución sólida. Colab
Tarjeta de modelo
AutoGluon Tabulares Con AutoGluon, puedes entrenar y, luego, implementar modelos de aprendizaje automático y de aprendizaje profundo de alta precisión para datos tabulares. Colab
Tarjeta de modelo
MaMMUT Lenguaje, Vision Una arquitectura de codificador de visión y decodificador de texto para tareas multimodales, como la respuesta a preguntas visuales, la recuperación de imágenes y texto, la recuperación de texto e imágenes, y la generación de incorporaciones multimodales. Colab
Tarjeta de modelo

Lista de modelos de socios disponibles en Model Garden

Algunos modelos de socios se ofrecen como APIs administradas en Vertex AI Model Garden (también conocido como modelo como servicio). En la siguiente tabla, se enumeran los modelos que están disponibles de los socios de Google en Model Garden:

Nombre del modelo Modalidad Descripción Guía de inicio rápido
Anthropic Claude 3.5 Sonnet v2 Idioma El Claude 3.5 Sonnet actualizado es un modelo de vanguardia para tareas de ingeniería de software del mundo real y capacidades de agencia. Claude 3.5 Sonnet ofrece estos avances al mismo precio y velocidad que su predecesor. Tarjeta de modelo
Anthropic Claude 3.5 Haiku Idioma Claude 3.5 Haiku, la nueva generación del modelo más rápido y rentable de Anthropic, es óptima para casos de uso en los que la velocidad y la asequibilidad son importantes. Tarjeta de modelo
Claude 3 Opus de Anthropic Idioma Un modelo de IA potente con un rendimiento de primer nivel en tareas muy complejas. Puede navegar por instrucciones abiertas y situaciones nunca vistas con una fluidez notable y una comprensión similar a la humana. Tarjeta de modelo
Anthropic Claude 3 Haiku Idioma El modelo de visión y texto más rápido de Anthropic para respuestas casi instantáneas a consultas simples, diseñado para experiencias de IA fluidas que imitan las interacciones humanas. Tarjeta de modelo
Anthropic Claude 3.5 Sonnet Idioma Claude 3.5 Sonnet supera el rendimiento de Claude 3 Opus de Anthropic en una amplia variedad de evaluaciones de Anthropic, gracias a la velocidad y el costo de su modelo de nivel intermedio, Claude 3 Sonnet. Tarjeta de modelo
Anthropic Claude 3 Sonnet Idioma Un modelo de texto y visión que equilibra el rendimiento y la velocidad para procesar cargas de trabajo empresariales. Está diseñado para implementaciones de IA a escala y de bajo costo. Tarjeta de modelo
Jamba 1.5 Large (versión preliminar) Idioma Jamba 1.5 Large de AI21 Labs está diseñado para respuestas de alta calidad, alto rendimiento y precios competitivos en comparación con otros modelos de su clase de tamaño. Tarjeta de modelo
Jamba 1.5 Mini (Versión preliminar) Idioma El Jamba 1.5 Mini de AI21 Labs está bien equilibrado en calidad, rendimiento y bajo costo. Tarjeta de modelo
Llama 3.2 (versión preliminar) Lenguaje, Vision Un modelo multimodal de 90B de tamaño mediano que puede admitir el razonamiento de imágenes, como el análisis de gráficos y diagramas, así como la leyenda de imágenes. Tarjeta de modelo
Llama 3.1 (versión preliminar) Idioma Una colección de LLM multilingües optimizados para casos de uso de diálogos multilingües y que superan a muchos de los modelos de chat cerrado y de código abierto disponibles en comparativas comunes de la industria. Tarjeta de modelo
Mistral Large (24.11) Idioma Mistral Large (24.11) es la siguiente versión del modelo Mistral Large (2407) ahora con capacidades de razonamiento y llamadas a función mejoradas. Tarjeta de modelo
Mistral Grande (2407) Idioma Mistral Large (2407) es el modelo insignia de Mistral AI para la generación de texto. Alcanza capacidades de razonamiento de primer nivel y se puede usar para tareas multilingües complejas, como la comprensión de texto, la transformación y la generación de código. Tarjeta de modelo
Mistral Nemo Idioma El modelo propietario más rentable de Mistral AI. Usa cargas de trabajo de baja latencia y tareas simples de Mistral Nemo que se pueden realizar de forma masiva, como la clasificación, la asistencia al cliente y la generación de texto. Tarjeta de modelo
Codestral Código Un modelo generativo que está diseñado y optimizado específicamente para la generación de código. Puedes usar Codestral para diseñar aplicaciones avanzadas de IA. Tarjeta de modelo

Seguridad y pruebas de modelos

Google realiza pruebas y comparativas exhaustivas en los contenedores de entrega y ajuste que proporcionamos. El análisis de vulnerabilidades activo también se aplica a los artefactos de contenedores.

Los modelos de terceros de socios destacados se someten a análisis de puntos de control de modelos para garantizar su autenticidad. HuggingFace escanea directamente los modelos de terceros de HuggingFace Hub, en cada confirmación o cuando se visita una página del repositorio, en busca de software malicioso, archivos pickle y secretos. HuggingFace marca los modelos con hallazgos de estos análisis. Te recomendamos que realices una revisión exhaustiva de cualquier modelo marcado antes de implementarlo en Model Garden.

Cómo usar las tarjetas de modelo

Haz clic en una tarjeta de modelo para usar el modelo asociado a ella. Por ejemplo, puedes hacer clic en una tarjeta de modelo para probar las instrucciones, ajustar un modelo, crear aplicaciones y ver muestras de código.

Para aprender a usar modelos asociados con tarjetas de modelo, haz clic en una de las siguientes pestañas:

Prueba mensajes

Usa la tarjeta de modelo de la API de PaLM de Vertex AI para probar instrucciones.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. Busca un modelo compatible que desees probar y haz clic en Ver detalles.

  3. Haz clic en Abrir diseño de instrucciones.

    Se te redireccionará a la página Diseño de instrucciones.

  4. En Instrucción, ingresa la instrucción que deseas probar.

  5. Opcional: Configura los parámetros del modelo.

  6. Haz clic en Enviar.

Ajusta un modelo

Para ajustar los modelos compatibles, usa una canalización de Vertex AI o un notebook.

Ajusta mediante una canalización

Los modelos BERT y T5-FLAN admiten el ajuste del modelo mediante una canalización.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. En Buscar modelos, ingresa BERT o F5-FLAN y, luego, haz clic en la lupa para buscar.

  3. Haz clic en Ver detalles en la tarjeta de modelo F5-FLAN o BERT.

  4. Haz clic en Abrir canalización de ajuste.

    Se te redireccionará a la página de canalizaciones de Vertex AI.

  5. Para comenzar a ajustar, haz clic en Crear ejecución.

Ajusta un notebook

Las tarjetas de modelo para la mayoría de los modelos base de código abierto y los modelos ajustables admiten el ajuste en un notebook.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. Busca un modelo compatible que desees ajustar y haz clic en Ver detalles.

  3. Haz clic en Abrir notebook.

Implementar un modelo

Puedes implementar un modelo desde su tarjeta de modelo, como la de la dispersión estable. Cuando implementas un modelo, puedes optar por usar una reserva de Compute Engine. Para obtener más información, consulta Usa reservas con predicciones.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. Busca un modelo compatible que desees implementar y haz clic en su tarjeta.

  3. Haz clic en Implementar para abrir el panel Implementar modelo.

  4. En el panel Implementar modelo, especifica los detalles de la implementación.

    1. Usa o modifica los nombres del modelo y el extremo generados.
    2. Selecciona una ubicación en la que se creará el extremo de tu modelo.
    3. Selecciona un tipo de máquina para usar en cada nodo de tu implementación.
    4. Para usar una reserva de Compute Engine, en la sección Configuración de la implementación, selecciona Configuración avanzada.

      En el campo Tipo de reserva, selecciona un tipo de reserva. La reserva debe coincidir con las especificaciones de la máquina que especificaste.

      • Usar de forma automática la reserva creada: Vertex AI selecciona automáticamente una reserva permitida con propiedades coincidentes. Si no hay capacidad en la reserva seleccionada automáticamente, Vertex AI usa el grupo de recursos general de Google Cloud.
      • Seleccionar reservas específicas: Vertex AI usa una reserva específica. Si no hay capacidad para la reserva que seleccionaste, se genera un error.
      • No usar (predeterminado): Vertex AI usa el grupo general de recursos de Google Cloud. Este valor tiene el mismo efecto que no especificar una reserva.
  5. Haz clic en Implementar.

Visualiza ejemplos de código

La mayoría de las tarjetas de modelo para los modelos de soluciones específicos para tareas contienen muestras de código que puedes copiar y probar.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. Busca un modelo compatible del que desees ver muestras de código y haz clic en la pestaña Documentación.

  3. La página se desplaza hasta la sección de documentación con un código de muestra incorporado.

Crea una app de vision

Las tarjetas de modelo para los modelos de Vision artificial aplicables admiten la creación de una aplicación de vision.

  1. En la consola de Google Cloud, ve a la página Model Garden.

    Ir a Model Garden

  2. Busca un modelo de vision en la sección de soluciones específicas para tareas que desees usar para crear una aplicación de vision y haz clic en Ver detalles.

  3. Haz clic en Crear app.

    Se te redireccionará a Vertex AI Vision.

  4. En Nombre de la aplicación, ingresa un nombre para tu aplicación y haz clic en Continuar.

  5. Selecciona un plan de facturación y haz clic en Crear.

    Se te redireccionará a Vertex AI Vision Studio, en la que puedes seguir creando tu aplicación de Vision artificial.

Precios

En el caso de los modelos de código abierto en Model Garden, se te cobra por el uso de lo siguiente en Vertex AI:

Controla el acceso a modelos específicos

Puedes establecer una política de la organización de Model Garden a nivel de la organización, la carpeta o el proyecto para controlar el acceso a modelos específicos en Model Garden. Por ejemplo, puedes permitir el acceso a modelos específicos que hayas verificado y rechazar el acceso a todos los demás.

¿Qué sigue?