Esplora i modelli di IA in Model Garden

Model Garden nella console Google Cloud è una libreria di modelli ML che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di asset e modelli di proprietà di Google e di alcuni OSS.

I seguenti argomenti introducono i modelli di AI disponibili in Model Garden e come utilizzarlo.

Esplorare i modelli

Per visualizzare l'elenco dei modelli Vertex AI e open source (di base, ottimizzabili e specifici per le attività), vai alla pagina Model Garden nella console Google Cloud.

Vai a Model Garden

Le categorie dei modelli disponibili in Model Garden sono:

Categoria Descrizione
Modelli di base Modelli di grandi dimensioni multitasking preaddestrati che possono essere ottimizzati o personalizzati per attività specifiche mediante Vertex AI Studio, l'API Vertex AI e l'SDK Vertex AI per Python.
Modelli ottimizzabili Modelli perfezionabili mediante un blocco note personalizzato una pipeline o un blocco note personalizzato.
Soluzioni specifiche per le attività La maggior parte di questi modelli pronto per l'uso. Molti possono essere personalizzati usando i tuoi dati.

Per filtrare i modelli nel riquadro dei filtri, specifica quanto segue:

  • Modalità: fai clic sulle modalità (tipi di dati) che vuoi includere nel modello.
  • Attività: fai clic sull'attività che deve essere eseguita dal modello.
  • Caratteristiche: fai clic sulle caratteristiche da inserire nel modello.

Per scoprire di più su ciascun modello, fai clic sulla relativa scheda.

Modelli disponibili in Model Garden

Puoi trovare i modelli proprietari di Google e alcuni modelli open source in Model Garden.

Elenco dei modelli proprietari di Google

La tabella seguente elenca i modelli proprietari di Google disponibili in Model Garden:

Nome modello Modalità Descrizione Guide rapide
Gemini 1.5 Flash Linguaggio, audio, visione Il modello multimodale Gemini più veloce ed economico. È progettato per attività con volumi elevati e applicazioni convenienti sensibili alla latenza. Grazie alla sua reattività, Gemini 1.5 Flash è una buona opzione per creare assistenti di chat e applicazioni di generazione di contenuti on demand. Scheda del modello
Gemini 1.5 Pro Linguaggio, audio, visione Modello multimodale che supporta l'aggiunta di file PDF, audio, video e di immagini nei prompt di testo o chat per una risposta di testo o codice. Scheda del modello
Gemini 1.0 Pro Lingua Progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice. Scheda del modello
Gemini 1.0 Pro Vision Linguaggio, visione Modello multimodale che supporta l'aggiunta di file di immagini, video e PDF nei prompt di testo o chat per una risposta di testo o codice. Scheda del modello
PaLM 2 per il testo Lingua Ottimizzato per seguire le istruzioni in linguaggio naturale ed è adatto a una varietà di attività relative alle lingue. Scheda del modello
PaLM 2 per Chat Lingua Ottimizzato per condurre conversazioni naturali. Utilizza questo modello per creare e personalizzare la tua applicazione di chatbot. Scheda del modello
Codey per il completamento del codice Lingua Genera codice basato su prompt di codice. Ideale per i suggerimenti di codice e la riduzione al minimo dei bug nel codice. Scheda del modello
Codey per la generazione di codice Lingua Genera codice basato sull'input in linguaggio naturale. Ideale per scrivere funzioni, classi, test delle unità e altro ancora. Scheda del modello
Codey per Chat di codice Lingua Ricevi assistenza correlata al codice attraverso una conversazione naturale. Utile per domande su un'API, sulla sintassi in una lingua supportata e altro ancora. Scheda del modello
Incorporamenti per il testo Lingua Converte i dati testuali in vettori numerici che possono essere elaborati da algoritmi di machine learning, in particolare i modelli di grandi dimensioni. Scheda del modello
Imagen per la generazione di immagini Vision Crea o modifica immagini di qualità professionale su larga scala utilizzando prompt di testo. Scheda del modello
Segmentazione delle immagini Vertex (anteprima) Vision Usa prompt di testo o disegna a mano libera per segmentare un'immagine. Immagine la segmentazione consente, ad esempio, di rilevare oggetti, rimuovere sullo sfondo di un'immagine o segmenta il primo piano di un'immagine. Scheda del modello
Imagen per le didascalie e VQA Lingua Genera una descrizione pertinente per una determinata immagine. Scheda del modello
Incorporamenti per il multimodale Vision Genera vettori basati su immagini, che possono essere utilizzati per attività successive come la classificazione e la ricerca di immagini. Scheda del modello
Chirp Voce Una versione di un Universal Speech Model che ha oltre 2 miliardi di parametri e può trascrivere in oltre 100 lingue in un unico modello. Scheda del modello

Elenco di modelli con ricette di ottimizzazione o pubblicazione open source in Model Garden

Nella tabella seguente sono elencati i modelli OSS che supportano l'ottimizzazione o la creazione di ricette di pubblicazione open source in Model Garden:

Nome modello Modalità Descrizione Guida rapida
Flux Vision Un modello di transformer con flusso rettificato da 12 miliardi di parametri che genera immagini di alta qualità dalle descrizioni di testo. Scheda del modello
Protezione prompt Lingua Input LLM guardrail contro tecniche di jailbreaking e indiretti iniezioni. Scheda del modello
Lama 3.2 Lingua Una raccolta di modelli linguistici di grandi dimensioni (LLM) multilingue modelli generativi preaddestrati e ottimizzati per l'istruzione in 1B e 3B dimensioni. Scheda del modello
Lama 3.2 - Vision Linguaggio, visione Una raccolta di modelli linguistici di grandi dimensioni multimodali che sono modelli generative di ragionamento per immagini preaddestrati e sintonizzati sulle istruzioni con dimensioni di 11 miliardi e 90 miliardi di parametri. Questi modelli sono ottimizzati per il riconoscimento visivo, ragionare con le immagini, creare didascalie e rispondere a domande generali su dell'immagine. Scheda del modello
Llama Guard 3 Lingua Un modello preaddestrato Llama-3.1-8B che è stato perfezionato per la classificazione della sicurezza dei contenuti. Scheda del modello
Qwen2 Lingua Esegui il deployment di Qwen2, una serie di modelli linguistici di grandi dimensioni di base. Colab
Scheda del modello
Phi-3 Lingua Esegui il deployment di Phi-3, una serie di modelli linguistici di grandi dimensioni di base. Colab
Scheda del modello
E5 Lingua Esegui il deployment di E5, una serie di modelli di incorporamento del testo. Colab
Scheda del modello
ID istantaneo Lingua, Visione Esegui il deployment di Instant ID, un modello di generazione di testo in immagini che preserva l'identità. Colab
Scheda del modello
Llama 3 Lingua Esplora e crea con i modelli Llama 3 di Meta (8B, 70B, 405B) su Vertex AI. Scheda del modello
Gemma 2 Lingua Modelli aperti con peso variabile (9 miliardi, 27 miliardi) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. Scheda del modello
Gemma Lingua Modelli di peso aperti (2B, 7B) basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. Scheda del modello
CodeGemma Lingua Modelli aperti con peso variabile (2 miliardi, 7 miliardi) progettati per la generazione e il completamento del codice e basati sulla stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. Scheda del modello
PaliGemma Lingua Modello a peso aperto 3B progettato per le attività di aggiunta di didascalie alle immagini e di risposta a domande visive, creato sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. Scheda del modello
Vicuna v1.5 Lingua Esegui il deployment dei modelli della serie Vicuna 1.5, ovvero modelli di base ottimizzati da Llama2 per la generazione di testo. Scheda del modello
NLLB Lingua Esegui il deployment di modelli di serie nllb per la traduzione multilingue. Scheda del modello
Colab
Mistral-7B Lingua Esegui il deployment di Mistral-7B, un modello di base per la generazione di testo. Scheda del modello
BioGPT Lingua Esegui il deployment di BioGPT, un modello di generazione di testo per il dominio biomedico. Scheda del modello
Colab
BiomedCLIP Lingua, Visione Esegui il deployment di BiomedCLIP, un modello di base multimodale per il dominio biomedico. Scheda del modello
Colab
ImageBind Lingua, visione,
audio
Esegui il deployment di ImageBind, un modello di base per l'incorporamento multimodale. Scheda del modello
Colab
DITO Lingua, Visione Ottimizza ed esegui il deployment di DITO, un modello di base multimodale per attività di rilevamento di oggetti con vocabolario aperto. Scheda del modello
Colab
OWL-ViT v2 Linguaggio, visione Esegui il deployment di OWL-ViT v2, un modello di base multimodale per le attività di rilevamento di oggetti con vocabolario aperto. Scheda del modello
Colab
FaceStylizer (Mediapipe) Vision Una pipeline generativa per trasformare le immagini dei volti umani in un nuovo stile. Scheda del modello
Colab
Llama 2 Lingua Ottimizza ed esegui il deployment dei modelli di base Llama 2 di Meta (7B, 13B, 70B) su Vertex AI. Scheda del modello
Code Llama Lingua Esegui il deployment dei modelli di base Code Llama di Meta (7B, 13B, 34B) su Vertex AI. Scheda del modello
Istruzioni Falcon Lingua Ottimizza ed esegui il deployment dei modelli Falcon-instruct (7B, 40B) utilizzando PEFT. Colab
Scheda del modello
OpenLLaMA Lingua Ottimizza e esegui il deployment dei modelli OpenLLaMA (3B, 7B, 13B) utilizzando PEFT. Colab
Scheda del modello
T5-FLAN Lingua Ottimizza ed esegui il deployment di T5-FLAN (base, small, large). Scheda del modello (inclusa la pipeline di ottimizzazione)
BERT Lingua Ottimizza ed esegui il deployment di BERT utilizzando PEFT. Colab
Scheda modello
BART-grandi-cnn Lingua Esegui il deployment di BART, un modello di Transformer encoder-encoder (seq2seq) con un encoder bidirezionale (simile a BERT) e un decoder autoregressivo (simile a GPT). Colab
Scheda modello
RoBERTa-grandi Lingua Ottimizza e esegui il deployment di RoBERTa-large utilizzando PEFT. Colab
Scheda modello
XLM-RoBERTa-large Lingua Ottimizza e esegui il deployment di XLM-RoBERTa-large (una versione multilingue di RoBERTa) utilizzando PEFT. Colab
Scheda del modello
Dolly-v2-7b Lingua Esegui il deployment di Dolly-v2-7b, un modello linguistico di grandi dimensioni (LLM) basato sulle istruzioni con 6,9 miliardi di parametri. Colab
Scheda modello
Stable Diffusion XL v1.0 Linguaggio, visione Esegui il deployment di Stable Diffusion XL v1.0, che supporta la generazione da testo a immagine. Colab
Scheda del modello
Stable Diffusion XL Lightning Linguaggio, visione Esegui il deployment di Stable Diffusion XL Lightning, un modello di generazione da testo a immagine. Colab
Scheda del modello
Stable Diffusion v2.1 Linguaggio, visione Ottimizza ed esegui il deployment di Stable Diffusion v2.1 (supporta la generazione di testo in immagini) utilizzando Dreambooth. Colab
Scheda modello
Upscaler 4x di Stable Diffusion Linguaggio, visione Esegui il deployment dell'upscaler Stable Diffusion 4x, che supporta la superrisoluzione delle immagini basata sul testo. Colab
Scheda modello
InstructPix2Pix Linguaggio, visione Esegui il deployment di InstructPix2Pix, che supporta la modifica delle immagini tramite prompt di testo. Colab
Scheda del modello
Inpainting con Stable Diffusion Linguaggio, visione Ottimizza e implementa la funzionalità di inpainting con diffusione stabile, che supporta l'inpainting di un'immagine mascherata utilizzando un prompt di testo. Colab
Scheda del modello
SAM Lingua, Visione Esegui il deployment di Segment Anything, che supporta la segmentazione delle immagini zero-shot. Colab
Scheda del modello
Da testo a video (ModelScope) Linguaggio, visione Esegui il deployment di ModelScope da testo a video, che supporta la generazione da testo a video. Colab
Scheda del modello
Recupero di immagini composte di Pic2Word Lingua, Visione Esegui il deployment di Pic2Word, che supporta il recupero di immagini composte multimodali. Colab
Scheda del modello
BLIP2 Lingua, Visione Esegui il deployment di BLIP2, che supporta le didascalie codificate e le risposte visive alle domande. Colab
Scheda del modello
Open-CLIP Linguaggio, visione Ottimizza ed esegui il deployment di Open-CLIP, che supporta la classificazione zero-shot. Colab
Scheda del modello
F-VLM Lingua, Visione Esegui il deployment di F-VLM, che supporta il rilevamento di oggetti immagine vocabolario aperti. Colab
Scheda del modello
tfhub/EfficientNetV2 Vision Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
EfficientNetV2 (TIMM) Vision Ottimizza e esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
Proprietario/EfficientNetV2 Vision Ottimizza ed esegui il deployment del checkpoint proprietario di Google del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
EfficientNetLite (MediaPipe) Vision Ottimizza il modello di classificazione delle immagini EfficientNetLite tramite lo strumento per la creazione di modelli MediaPipe. Colab
Scheda del modello
tfvision/vit Vision Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini ViT. Colab
Scheda modello
ViT (TIMM) Vision Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ViT. Colab
Scheda modello
Proprietario/ViT Vision Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ViT. Colab
Scheda modello
Proprietario/MaxViT Vision Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ibrido MaxViT (CNN + ViT). Colab
Scheda modello
ViT (JAX) Vision Ottimizza ed esegui il deployment dell'implementazione JAX del modello di classificazione delle immagini ViT. Colab
Scheda del modello
tfvision/SpineNet Vision Ottimizza e esegui il deployment dell'implementazione di Tensorflow Vision del modello di rilevamento di oggetti SpineNet. Colab
Scheda del modello
Proprietario/Spinenet Vision Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di rilevamento degli oggetti SpineNet. Colab
Scheda del modello
tfvision/YOLO Vision Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti a una fase YOLO. Colab
Scheda modello
Proprietario/YOLO Vision Ottimizza ed esegui il deployment del checkpoint proprietario di Google del modello di rilevamento di oggetti YOLO a un solo livello. Colab
Scheda modello
YOLOv8 (Keras) Vision Ottimizza ed esegui il deployment dell'implementazione di Keras del modello YOLOv8 per il rilevamento di oggetti. Colab
Scheda del modello
tfvision/YOLOv7 Vision Ottimizza ed esegui il deployment del modello YOLOv7 per il rilevamento degli oggetti. Colab
Scheda del modello
ByteTrack Video Object Tracking Vision Esegui la previsione batch per il tracciamento di oggetti video utilizzando il tracker ByteTrack. Colab
Scheda del modello
ResNeSt (TIMM) Vision Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ResNeSt. Colab
Scheda modello
ConvNeXt (TIMM) Vision Ottimizza ed esegui il deployment di ConvNeXt, un modello convoluzionale puro per la classificazione delle immagini ispirato al design dei Transformer Vision. Colab
Scheda modello
CspNet (TIMM) Vision Ottimizza ed esegui il deployment del modello di classificazione delle immagini CSPNet (Cross Stage Partial Network). Colab
Scheda del modello
Inception (TIMM) Vision Ottimizza ed esegui il deployment del modello di classificazione delle immagini Inception. Colab
Scheda del modello
DeepLabv3+ (con checkpoint) Vision Ottimizza ed esegui il deployment del modello DeepLab-v3 Plus per la segmentazione semantica dell'immagine. Colab
Scheda del modello
R-CNN più veloce (Detectron2) Vision Ottimizza ed esegui il deployment dell'implementazione di Detectron2 del modello Faster R-CNN per il rilevamento di oggetti immagine. Colab
Scheda modello
RetinaNet (Detectron2) Vision Ottimizza ed esegui il deployment dell'implementazione Detectron2 del modello RetinaNet per il rilevamento degli oggetti immagine. Colab
Scheda modello
Mask R-CNN (Detectron2) Vision Ottimizza e distribuisci l'implementazione Detectron2 del modello Mask R-CNN per il rilevamento e la segmentazione degli oggetti immagine. Colab
Scheda del modello
ControlNet Vision Ottimizza e implementa il modello di generazione di testo in immagine di ControlNet. Colab
Scheda modello
MobileNet (TIMM) Vision Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini MobileNet. Colab
Scheda modello
Classificazione delle immagini MobileNetV2 (MediaPipe) Vision Ottimizza il modello di classificazione delle immagini MobileNetV2 utilizzando lo strumento per la creazione di modelli MediaPipe. Colab
Scheda del modello
Rilevamento di oggetti MobileNetV2 (MediaPipe) Vision Ottimizza il modello di rilevamento degli oggetti MobileNetV2 utilizzando il creatore di modelli MediaPipe. Colab
Scheda del modello
MobileNet-MultiHW-AVG (MediaPipe) Vision Ottimizza il modello di rilevamento degli oggetti MobileNet-MultiHW-AVG utilizzando il creatore di modelli MediaPipe. Colab
Scheda modello
DeiT Vision Ottimizza ed esegui il deployment del modello DeiT (Data-efficient Image Transformer) per la classificazione delle immagini. Colab
Scheda del modello
BEiT Vision Ottimizza ed esegui il deployment del modello BEiT (Bidirectional Encoderpresentation from Image Transformers) per la classificazione delle immagini. Colab
Scheda del modello
Riconoscimento dei gesti della mano (MediaPipe) Vision Ottimizza e distribuisci sul dispositivo i modelli di riconoscimento dei gesti della mano utilizzando MediaPipe. Colab
Scheda del modello
Classificatore di embedding di parole medio (MediaPipe) Vision Ottimizza ed esegui il deployment on-device dei modelli di classificazione dell'embedding medio delle parole utilizzando MediaPipe. Colab
Scheda del modello
Classificatore MobileBERT (MediaPipe) Vision Ottimizza ed esegui il deployment dei modelli di classificazione MobileBERT sul dispositivo utilizzando MediaPipe. Colab
Scheda del modello
Classificazione dei video clip MoViNet Video Ottimizza ed esegui il deployment di modelli di classificazione di clip video MoViNet. Colab
Scheda del modello
Riconoscimento dell'azione video di MoViNet Video Ottimizza ed esegui il deployment dei modelli MoViNet per l'inferenza del riconoscimento delle azioni. Colab
Scheda del modello
MCM di Stable Diffusion XL Vision Implementa questo modello che utilizza il modello di coerenza latente (LCM) per migliorare la generazione da testo a immagine nei modelli di diffusione latente consentendo la creazione di immagini più rapide e di alta qualità con meno passaggi. Colab
Scheda del modello
LLaVA 1.5 Visione, linguaggio Esegui il deployment dei modelli LLaVA 1.5. Colab
Scheda del modello
Pytorch-ZipNeRF Visione, video Addestrare il modello Pytorch-ZipNeRF, un modello all'avanguardia l'implementazione dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata dalle immagini 2D. Colab
Scheda del modello
Mixtral Lingua Esegui il deployment del modello Mixtral, un modello linguistico di grandi dimensioni (LLM) basato su una combinazione di esperti (MoE) sviluppato da Mistral AI. Scheda del modello
Llama 2 (quantizzato) Lingua Ottimizza ed esegui il deployment di una versione quantizzata dei modelli Llama 2 di Meta. Colab
Scheda del modello
LaMa (Large Mask Inpainting) Vision Esegui il deployment di LaMa che utilizza convoluzioni di Fourier rapide (FFC), una perdita percettiva del campo ricettivo elevato e maschere di addestramento di grandi dimensioni consente l'inserimento di immagini con una risoluzione robusta. Colab
Scheda del modello
AutoGluon Tabulare Con AutoGluon puoi addestrare e implementare modelli di machine learning e deep learning ad alta precisione per i dati tabulari. Colab
Scheda del modello
MaMMUT Linguaggio, visione Un'architettura di encoder visivo e decoder di testo per attività multimodali come risposta alle domande visive, recupero di testo e immagini, recupero di immagini e testo e generazione di incorporamenti multimodali. Colab
Scheda del modello

Elenco dei modelli partner disponibili in Model Garden

Alcuni modelli dei partner sono offerti come API gestite su Vertex AI Model Garden (noto anche come Model as a Service). Le seguenti che elenca i modelli disponibili presso i partner di Google in Model Garden:

Nome modello Modalità Descrizione Guida rapida
Claude 3.5 di Anthropic v2 Lingua La versione aggiornata di Claude 3.5 Sonnet è un modello all'avanguardia per attività di software engineering reali delle attività di agente. Claude 3.5 Sonnet offre questi miglioramenti allo stesso prezzo e alla stessa velocità del suo predecessore. Scheda del modello
Claude 3.5 Sonnet di Anthropic Lingua Claude 3.5 Sonetto ottiene prestazioni migliori Claude3 di Anthropic su un'ampia gamma di valutazioni di Anthropic con la velocità e il costo del modello di livello medio di Anthropic, Claude3 Sonetto. Scheda del modello
Claude 3 Opus di Anthropic Lingua Un modello di AI potente, con prestazioni di alto livello per attività estremamente complesse. È in grado di esplorare prompt aperti e scenari non visivi con notevole fluidità e comprensione di tipo umano. Scheda del modello
Claude 3 Haiku di Anthropic Lingua La visione più veloce e il modello di testo di Anthropic per risposte quasi immediate a semplici query, pensate per AI senza interruzioni che imitano le interazioni umane. Scheda del modello
Claude 3 Sonnet di Anthropic Lingua Un modello di visione artificiale e di testo che bilancia le prestazioni e la velocità per elaborare i carichi di lavoro aziendali. È progettato per deployment di IA scalabili a basso costo. Scheda del modello
Jamba 1.5 Large (anteprima) Lingua Jamba 1.5 Large di AI21 Labs è progettato per risposte di qualità superiore, elevato throughput e prezzi competitivi rispetto ad altri modelli della stessa classe di dimensioni. Scheda del modello
Jamba 1.5 Mini (anteprima) Lingua Jamba 1.5 Mini di AI21 Labs offre un buon equilibrio tra qualità, velocità di elaborazione e basso costo. Scheda del modello
Llama 3.2 (anteprima) Lingua, Visione Un modello multimodale di 90 miliardi di medie dimensioni che può supportare il ragionamento tramite immagini, come l'analisi di grafici e tabelle, nonché per le didascalie delle immagini. Scheda del modello
Llama 3.1 (anteprima) Lingua Una raccolta di LLM multilingue ottimizzati per i casi d'uso dei dialoghi multilingue e che superano molti dei modelli di chat open source e chiusi disponibili nei benchmark di settore comuni. Scheda del modello
Mistral grande (2407) Lingua Mistral Large (2407) è il nome modello principale per la generazione di testo. Raggiunge le valutazioni migliori e può essere utilizzato per attività multilingue complesse, come comprensione del testo, trasformazione e generazione di codice. Scheda del modello
Mistral Nemo Lingua Il prodotto proprietario più conveniente di Mistral AI un modello di machine learning. Usa carichi di lavoro a bassa latenza di Mistral Nemo e semplici che possono essere eseguite in blocco, come la classificazione, assistenza tecnica e generazione di testi. Scheda del modello
Codestral Codice Un modello generativo progettato specificatamente e ottimizzati per la generazione di codice. Puoi utilizzare Codestral per progettare applicazioni di IA avanzate. Scheda del modello

Test del modello e sicurezza

Google esegue test e benchmarking accurati sulla pubblicazione e sull'ottimizzazione i container che forniamo. L'analisi delle vulnerabilità attive viene applicata anche agli artefatti dei container.

I modelli di terze parti dei partner in primo piano vengono sottoposti a scansioni di controllo dei modelli per verificarne l'autenticità. Vengono analizzati i modelli di terze parti di HuggingFace Hub direttamente da HuggingFace, a ogni commit o quando viene visitata la pagina di un repository, per malware, pickle , e secret. I modelli con risultati di queste scansioni vengono segnalati da HuggingFace. Ti consigliamo di eseguire un esame approfondito di qualsiasi modello segnalato prima di eseguirlo in Model Garden.

Come utilizzare le schede del modello

Fai clic sulla scheda di un modello per utilizzare il modello associato. Ad esempio, puoi fare clic sulla scheda di un modello per testare i prompt, ottimizzare un modello, creare applicazioni e visualizzare esempi di codice.

Per scoprire come utilizzare i modelli associati alle schede dei modelli, fai clic su una delle seguenti schede:

Testare i prompt

Utilizzare la scheda del modello dell'API Vertex AI PaLM per testare i prompt.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato che vuoi testare e fai clic su Visualizza dettagli.

  3. Fai clic su Apri progettazione prompt.

    Viene visualizzata la pagina Design del prompt.

  4. In Prompt, inserisci il prompt che vuoi testare.

  5. (Facoltativo) Configura i parametri del modello.

  6. Fai clic su Invia.

Ottimizza un modello

Per ottimizzare i modelli supportati, utilizza una pipeline Vertex AI o un blocco note.

Ottimizzazione utilizzando una pipeline

I modelli BERT e T5-FLAN supportano la regolazione del modello utilizzando una pipeline.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. In Cerca modelli, inserisci BERT o T5-FLAN, quindi fai clic sul pulsante lente d'ingrandimento per cercare.

  3. Fai clic su Visualizza dettagli nella scheda del modello T5-FLAN o BERT.

  4. Fai clic su Apri pipeline di ottimizzazione.

    Si apre la pagina Vertex AI Pipelines.

  5. Per iniziare la sintonizzazione, fai clic su Crea esecuzione.

Sintonizzarsi su un notebook

Le schede dei modelli per la maggior parte dei modelli di base open source e dei modelli ottimizzabili supportano l'ottimizzazione in un notebook.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato che vuoi ottimizzare e fai clic su Visualizza dettagli.

  3. Fai clic su Apri notebook.

Esegui il deployment di un modello

Puoi eseguire il deployment di un modello dalla relativa scheda, ad esempio Stable Diffusion. Quando mentre esegui il deployment di un modello, puoi scegliere di usare una prenotazione Compute Engine. Per ulteriori informazioni, consulta Utilizzare le prenotazioni con la previsione.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato di cui vuoi eseguire il deployment e fai clic sulla relativa scheda.

  3. Fai clic su Esegui il deployment per aprire il riquadro Esegui il deployment del modello.

  4. Nel riquadro Esegui il deployment del modello, specifica i dettagli del deployment.

    1. Utilizza o modifica i nomi del modello e dell'endpoint generati.
    2. Seleziona una posizione in cui creare l'endpoint del modello.
    3. Seleziona un tipo di macchina da utilizzare per ogni nodo del deployment.
    4. Per utilizzare una prenotazione Compute Engine, nella sezione impostazioni, seleziona Avanzate.

      Per il campo Tipo di prenotazione, seleziona un tipo di prenotazione. La deve corrispondere alle specifiche della macchina specificate.

      • Utilizza automaticamente la prenotazione creata: Vertex AI seleziona automaticamente una prenotazione consentita con proprietà. Se non è disponibile capacità nel campo selezionato automaticamente Vertex AI utilizza il modello generale di Google Cloud pool di risorse.
      • Seleziona prenotazioni specifiche: Vertex AI utilizza una specifica prenotazione. Se non è disponibile la capacità per la prenotazione selezionata, viene generato un errore.
      • Non utilizzare (impostazione predefinita): Vertex AI utilizza il metodo pool di risorse Google Cloud. Questo valore ha lo stesso effetto di non specificare una prenotazione.
  5. Fai clic su Esegui il deployment.

Visualizza esempi di codice

La maggior parte delle schede dei modelli per le soluzioni specifiche per le attività contiene codice puoi copiare e testare.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato per il quale vuoi visualizzare gli esempi di codice e fai clic la scheda Documentazione.

  3. La pagina scorre fino alla sezione della documentazione con il codice campione incorporate nella struttura.

Creare un'app di visione

Le schede dei modelli per i modelli di visione artificiale applicabili supportano la creazione di un per la visione artificiale.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Nella sezione Soluzioni specifiche delle attività, trova un modello di visione artificiale che ti interessa. da utilizzare per creare un'applicazione di visione artificiale e fai clic su Visualizza dettagli.

  3. Fai clic su Crea app.

    Viene visualizzata la pagina Vertex AI Vision.

  4. In Nome applicazione, inserisci un nome per l'applicazione e fai clic su Continua.

  5. Seleziona un piano di fatturazione e fai clic su Crea.

    Verrà visualizzata la pagina Vertex AI Vision Studio, dove potrai continuare a creare la tua applicazione di visione artificiale.

Prezzi

Per i modelli open source in Model Garden, ti viene addebitato l'utilizzo su Vertex AI:

Controlla l'accesso a modelli specifici

Puoi impostare un criterio dell'organizzazione di Model Garden a livello di organizzazione, cartella o progetto per controllare l'accesso a modelli specifici in Model Garden. Per Ad esempio, puoi consentire l'accesso a modelli specifici che hai controllato e negato l'accesso a tutti gli altri.

Passaggi successivi