Model Garden nella console Google Cloud è una libreria di modelli ML che tu scopri, testi, personalizzi e distribuisci il software OSS selezionato e di proprietà di Google modelli e asset.
I seguenti argomenti introducono i modelli di AI disponibili in Model Garden e come utilizzarlo.
Esplora i modelli
Per visualizzare l'elenco degli elementi di base open source e Vertex AI disponibili, ottimizzabili e specifici per le attività, vai alla pagina di Model Garden nel nella console Google Cloud.
Le categorie di modelli disponibili in Model Garden sono:
Categoria | Descrizione |
---|---|
Modelli di base | Modelli di grandi dimensioni multitasking preaddestrati che possono essere ottimizzati o personalizzati per attività specifiche utilizzando Vertex AI Studio, l'API Vertex AI e l'SDK Vertex AI per Python. |
Modelli ottimizzabili | Modelli perfezionabili mediante un blocco note personalizzato una pipeline o un blocco note personalizzato. |
Soluzioni specifiche per le attività | La maggior parte di questi modelli pronto per l'uso. Molti possono essere personalizzati utilizzando i tuoi dati. |
Per filtrare i modelli nel riquadro dei filtri, specifica quanto segue:
- Modalità: fai clic sulle modalità (tipi di dati) da inserire nel modello.
- Attività: fai clic sull'attività che deve essere eseguita dal modello.
- Caratteristiche: fai clic sulle caratteristiche da inserire nel modello.
Per scoprire di più su ciascun modello, fai clic sulla relativa scheda.
Modelli disponibili in Model Garden
Puoi trovare i modelli proprietari di Google e alcuni modelli open source in Model Garden.
Elenco dei modelli proprietari di Google
La seguente tabella elenca i modelli proprietari di Google disponibili in Model Garden:
Nome modello | Modalità | Descrizione | Guide rapide |
---|---|---|---|
Gemini 1.5 Flash | Linguaggio, audio, visione | Il modello multimodale Gemini più veloce ed economico. È progettata per attività ad alto volume e applicazioni convenienti e sensibili alla latenza. Grazie alla sua reattività Gemini 1.5 Flash, è una buona opzione per creare assistenti per la chat e applicazioni di generazione di contenuti on demand. | Scheda del modello |
Gemini 1.5 Pro | Linguaggio, audio, visione | Modello multimodale che supporta l'aggiunta di immagini, audio, video e I file PDF in testo o chat richiedono una risposta di testo o codice. | Scheda del modello |
Gemini 1.0 Pro | Lingua | Progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice. | Scheda del modello |
Gemini 1.0 Pro Vision | Linguaggio, visione | Modello multimodale che supporta l'aggiunta di file immagine, video e PDF in prompt di testo o di chat per una risposta di testo o codice. | Scheda del modello |
PaLM 2 per il testo | Lingua | Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto a una varietà di attività relative alle lingue. | Scheda del modello |
PaLM 2 per Chat | Lingua | Ottimizzato per condurre conversazioni naturali. Utilizza questo modello per creare e personalizzare la tua applicazione di chatbot. | Scheda del modello |
Codey per il completamento del codice | Lingua | Genera codice basato su prompt di codice. Ideale per i suggerimenti di codice e la riduzione al minimo dei bug nel codice. | Scheda del modello |
Codey per la generazione del codice | Lingua | Genera codice basato sull'input in linguaggio naturale. Ideale per scrivere funzioni, classi, test delle unità e altro ancora. | Scheda del modello |
Codey per Codey Chat | Lingua | Ricevi assistenza correlata al codice attraverso una conversazione naturale. Ideale per domande su un'API, sintassi in una lingua supportata e altro ancora. | Scheda del modello |
Incorporamenti per il testo | Lingua | Converte i dati testuali in vettori numerici che possono essere elaborati da algoritmi di machine learning, in particolare i modelli di grandi dimensioni. | Scheda del modello |
Imagen per la generazione di immagini | Vision | Crea o modifica immagini di livello professionale su larga scala utilizzando prompt di testo. | Scheda del modello |
Imagen per le didascalie e VQA | Lingua | Genera una descrizione pertinente per una determinata immagine. | Scheda del modello |
Incorporamenti per multimodali | Vision | Genera vettori basati su immagini che possono essere utilizzati per attività downstream come la classificazione e la ricerca di immagini. | Scheda del modello |
Cip | Voce | Una versione di un Universal Speech Model che ha oltre 2 miliardi di parametri e può trascrivere in oltre 100 lingue in un unico modello. | Scheda del modello |
Elenco di modelli con ricette per l'ottimizzazione o la pubblicazione open source in Model Garden
La tabella seguente elenca i modelli OSS che supportano l'ottimizzazione open source o per servire ricette in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
E5 | Lingua | Esegui il deployment di E5, una serie di modelli di incorporamento del testo. | Colab Scheda del modello |
ID istantaneo | Linguaggio, visione | Esegui il deployment di Instant ID, un modello di generazione da testo a immagine che garantisce la protezione dell'identità. | Colab Scheda del modello |
Lama 3 | Lingua | Esplora e crea con i modelli Llama 3 di Meta (8B, 70B, 405B) su Vertex AI. | Scheda del modello |
Gemma 2 | Lingua | Modelli di peso aperti (9B, 27B) basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. | Scheda del modello |
Gemma | Lingua | Modelli di peso aperti (2B, 7B) basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. | Scheda del modello |
CodeGemma | Lingua | Modelli di peso aperti (2B, 7B) progettati per la generazione e il completamento del codice basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. | Scheda del modello |
PaliGemma | Lingua | Modello 3B di peso aperto progettato per attività di didascalie delle immagini, domande visive e risposta, basato sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. | Scheda del modello |
Vicuna v1.5 | Lingua | Esegui il deployment dei modelli della serie Vicuna v1.5, ovvero modelli di base ottimizzati da LLama2 per la generazione di testo. | Scheda del modello |
NLLB | Lingua | Esegui il deployment di modelli della serie nllb per la traduzione multilingue. | Scheda del modello Colab |
Mistral-7B | Lingua | Esegui il deployment di Mistral-7B, un modello di base per la generazione di testo. | Scheda del modello |
BioGPT | Lingua | Esegui il deployment di BioGPT, un modello generativo di testo per il dominio biomedica. | Scheda del modello Colab |
BiomedCLIP | Linguaggio, visione | Esegui il deployment di BiomedCLIP, un modello di base multimodale per il dominio biomedico. | Scheda del modello Colab |
ImageBind | Linguaggio, visione artificiale, Audio |
Esegui il deployment di ImageBind, un modello di base per l'incorporamento multimodale. | Scheda del modello Colab |
DITO | Linguaggio, visione | Ottimizza ed esegui il deployment di DITO, un modello di base multimodale per attività di rilevamento di oggetti vocabolario aperti. | Scheda del modello Colab |
OWL-ViT versione 2 | Linguaggio, visione | Esegui il deployment di OWL-ViT v2, un modello di base multimodale per attività di rilevamento aperte degli oggetti del vocabolario. | Scheda del modello Colab |
FaceStylizer (Mediapipe) | Vision | Una pipeline generativa per trasformare le immagini dei volti umani in un nuovo stile. | Scheda del modello Colab |
Llama 2 | Lingua | Ottimizza ed esegui il deployment dei modelli di base Llama 2 di Meta (7B, 13B, 70B) su Vertex AI. | Scheda del modello |
Code Llama | Lingua | Esegui il deployment dei modelli di base Code Llama di Meta (7B, 13B, 34B) su Vertex AI. | Scheda del modello |
Istruzioni Falcon | Lingua | Ottimizza ed esegui il deployment dei modelli Falcon-instruct (7B, 40B) utilizzando PEFT. | Colab Scheda del modello |
OpenLLaMA | Lingua | Ottimizza ed esegui il deployment dei modelli OpenLLaMA (3B, 7B, 13B) utilizzando PEFT. | Colab Scheda del modello |
T5-FLAN | Lingua | Ottimizza e distribuisci T5-FLAN (base, piccolo, grande). | Scheda del modello (pipeline di ottimizzazione inclusa) |
BERT | Lingua | Ottimizza ed esegui il deployment di BERT utilizzando PEFT. | Colab Scheda del modello |
BART-grandi-cnn | Lingua | Esegui il deployment di BART, un modello encoder-encoder (seq2seq) a trasformatore con un encoder bidirezionale (simile a BERT) e un decoder autoregressivo (simile a GPT). | Colab Scheda del modello |
RoBERTa-grandi | Lingua | Ottimizza ed esegui il deployment di RoBERTa-large utilizzando PEFT. | Colab Scheda del modello |
XLM-RoBERTa-grandi | Lingua | Ottimizza e distribuisci XLM-RoBERTa-large (una versione multilingue di RoBERTa) utilizzando PEFT. | Colab Scheda del modello |
Dolly-v2-7b | Lingua | Esegui il deployment di Dolly-v2-7b, un modello linguistico di grandi dimensioni (LLM) che segue le istruzioni, con 6,9 miliardi di parametri. | Colab Scheda del modello |
Stable Diffusion v1.5 | Linguaggio, visione | Modello di diffusione latente da testo a immagine in grado di generare immagini fotorealistiche quando viene fornito un input di testo. | Scheda del modello |
Stable Diffusion XL v1.0 | Linguaggio, visione | Esegui il deployment di Stable Diffusion XL v1.0, che supporta la generazione da testo a immagine. | Colab Scheda del modello |
Stable Diffusion XL Lightning | Linguaggio, visione | Esegui il deployment di Stable Diffusion XL Lightning, un modello di generazione da testo a immagine. | Colab Scheda del modello |
Stable Diffusion v2.1 | Linguaggio, visione | Ottimizza ed esegui il deployment di Stable Diffusion v2.1 (supporta la generazione da testo a immagine) utilizzando Dreambooth. | Colab Scheda del modello |
Strumento di risoluzione Stable Diffusion 4x | Linguaggio, visione | Esegui il deployment di Stable Diffusion 4x, che supporta la superrisoluzione delle immagini condizionate dal testo. | Colab Scheda del modello |
InstructPix2Pix | Linguaggio, visione | Esegui il deployment di InstructPix2Pix, che supporta la modifica delle immagini tramite prompt di testo. | Colab Scheda del modello |
Inpainting a diffusione stabile | Linguaggio, visione | Ottimizza ed esegui il deployment di Stable Diffusion Inpainting, che supporta l'inpainting di un'immagine mascherata mediante un prompt di testo. | Colab Scheda del modello |
SAM | Linguaggio, visione | Esegui il deployment di Segment Anything, che supporta la segmentazione delle immagini zero-shot. | Colab Scheda del modello |
Da testo a video (ModelScope) | Linguaggio, visione | Esegui il deployment di ModelScope da testo a video, che supporta la generazione da testo a video. | Colab Scheda del modello |
Zero-shot da testo a video | Linguaggio, visione | Esegui il deployment dei generatori da testo a video Stable Diffusion, che supportano la generazione da testo a video zero-shot. | Colab Scheda del modello |
Recupero immagine composta da Pic2Word | Linguaggio, visione | Esegui il deployment di Pic2Word, che supporta il recupero di immagini composte multimodali. | Colab Scheda del modello |
BLIP2 | Linguaggio, visione | Esegui il deployment di BLIP2, che supporta le didascalie delle immagini e la risposta alle domande visive. | Colab Scheda del modello |
Apri/CLIP | Linguaggio, visione | Ottimizza ed esegui il deployment di Open-CLIP, che supporta la classificazione zero-shot. | Colab Scheda del modello |
F-VLM | Linguaggio, visione | Esegui il deployment di F-VLM, che supporta il rilevamento di oggetti immagine vocabolario aperti. | Colab Scheda del modello |
tfhub/EfficientNetV2 | Vision | Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
EfficientNetV2 (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
Proprietario/EfficientNetV2 | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
EfficientNetLite (MediaPipe) | Vision | Ottimizza il modello di classificazione delle immagini EfficientNetLite tramite il creatore di modelli MediaPipe. | Colab Scheda del modello |
tfvision/vit | Vision | Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
ViT (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
Proprietario/ViT | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
Proprietary/MaxViT | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ibrido MaxViT (CNN + ViT). | Colab Scheda del modello |
ViT (JAX) | Vision | Ottimizza ed esegui il deployment dell'implementazione JAX del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
tfvision/SpineNet | Vision | Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti SpineNet. | Colab Scheda del modello |
Proprietario/Spinenet | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di rilevamento degli oggetti SpineNet. | Colab Scheda del modello |
tfvision/YOLO | Vision | Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti a una fase YOLO. | Colab Scheda del modello |
Proprietario/YOLO | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di rilevamento degli oggetti a una fase di YOLO. | Colab Scheda del modello |
YOLOv8 (Keras) | Vision | Ottimizza ed esegui il deployment dell'implementazione Keras del modello YOLOv8 per il rilevamento degli oggetti. | Colab Scheda del modello |
tfvision/YOLOv7 | Vision | Ottimizza ed esegui il deployment del modello YOLOv7 per il rilevamento degli oggetti. | Colab Scheda del modello |
Rilevamento di oggetti video ByteTrack | Vision | Esegui la previsione batch per il tracciamento di oggetti video utilizzando il tracker ByteTrack. | Colab Scheda del modello |
ResNeSt (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ResNeSt. | Colab Scheda del modello |
ConvNeXt (TIMM) | Vision | Ottimizza ed esegui il deployment di ConvNeXt, un modello convoluzionale puro per la classificazione delle immagini ispirato al design dei Transformer Vision. | Colab Scheda del modello |
CspNet (TIMM) | Vision | Ottimizza ed esegui il deployment del modello di classificazione delle immagini CSPNet (Cross Stage Partial Network). | Colab Scheda del modello |
Inception (TIMM) | Vision | Ottimizza ed esegui il deployment del modello di classificazione delle immagini Inception. | Colab Scheda del modello |
DeepLabv3+ (con checkpoint) | Vision | Ottimizza ed esegui il deployment del modello DeepLab-v3 Plus per la segmentazione semantica dell'immagine. | Colab Scheda del modello |
R-CNN più veloce (Detectron2) | Vision | Ottimizza ed esegui il deployment dell'implementazione Detectron2 del modello R-CNN più veloce per il rilevamento degli oggetti immagine. | Colab Scheda del modello |
RetinaNet (Detectron2) | Vision | Ottimizza ed esegui il deployment dell'implementazione Detectron2 del modello RetinaNet per il rilevamento degli oggetti immagine. | Colab Scheda del modello |
Maschera R-CNN (Detectron2) | Vision | Ottimizza e distribuisci l'implementazione Detectron2 del modello Mask R-CNN per il rilevamento e la segmentazione degli oggetti immagine. | Colab Scheda del modello |
ControlNet | Vision | Ottimizza ed esegui il deployment del modello di generazione da testo a immagine ControlNet. | Colab Scheda del modello |
MobileNet (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini MobileNet. | Colab Scheda del modello |
Classificazione delle immagini MobileNetV2 (MediaPipe) | Vision | Ottimizza il modello di classificazione delle immagini MobileNetV2 utilizzando il creatore di modelli MediaPipe. | Colab Scheda del modello |
Rilevamento di oggetti MobileNetV2 (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNetV2 utilizzando il creatore di modelli MediaPipe. | Colab Scheda del modello |
MobileNet-MultiHW-AVG (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNet-MultiHW-AVG utilizzando il creatore di modelli MediaPipe. | Colab Scheda del modello |
DeiT | Vision | Ottimizza ed esegui il deployment del modello DeiT (Data-efficient Image Transformer) per la classificazione delle immagini. | Colab Scheda del modello |
BEiT | Vision | Ottimizza ed esegui il deployment del modello BEiT (Bidirectional Encoderpresentation from Image Transformers) per la classificazione delle immagini. | Colab Scheda del modello |
Riconoscimento dei gesti della mano (MediaPipe) | Vision | Ottimizza e distribuisci sul dispositivo i modelli di riconoscimento dei gesti della mano utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore medio di incorporamento di parole (MediaPipe) | Vision | Ottimizza e distribuisci sul dispositivo i modelli di classificazione dell'incorporamento di parole medio utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore MobileBERT (MediaPipe) | Vision | Ottimizza e distribuisci sul dispositivo i modelli MobileBERT Classifier utilizzando MediaPipe. | Colab Scheda del modello |
Classificazione dei video clip MoViNet | Video | Ottimizza ed esegui il deployment dei modelli di classificazione dei video clip MoViNet. | Colab Scheda del modello |
Riconoscimento delle azioni video MoViNet | Video | Ottimizza ed esegui il deployment dei modelli MoViNet per l'inferenza del riconoscimento delle azioni. | Colab Scheda del modello |
MCM di Stable Diffusion XL | Vision | Esegui il deployment di questo modello che utilizza il modello di coerenza latente (LCM) per migliorare il trasferimento da testo a immagine nei modelli a diffusione latente, consentendo una maggiore creazione di immagini di alta qualità con meno passaggi. | Colab Scheda del modello |
LLaVA 1.5 | Visione, linguaggio | Esegui il deployment dei modelli LLaVA 1.5. | Colab Scheda del modello |
PyTorch-ZipNeRF | Visione artificiale, video | Addestrare il modello Pytorch-ZipNeRF, un modello all'avanguardia l'implementazione dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata dalle immagini 2D. | Colab Scheda del modello |
Mixtral 8x7B | Lingua | Esegui il deployment del modello Mixtral 8x7B, che è un mix di esperti (MoE) modello linguistico di grandi dimensioni (LLM) sviluppato da Mistral AI. È una decoder-only con 46.7 miliardi di parametri ed è stato segnalato che corrispondeva o superano LLaMA 2 70B e GPT 3.5 in molti benchmark. | Scheda del modello |
Lama 2 (quantificato) | Lingua | Ottimizza e esegui il deployment di una versione quantizzata di Llama 2 di Meta di machine learning. | Colab Scheda del modello |
LaMa (Large Mask Inpainting) | Vision | Esegui il deployment di LaMa, che usa convoluzioni di Fourier (FFC), un'elevata perdita percettiva del campo ricettivo e grandi maschere di addestramento consente un inpainting delle immagini con una risoluzione elevata. | Colab Scheda del modello |
AutoGluon | Tabulare | Con AutoGluon puoi addestrare e implementare macchine ad alta precisione di machine learning e deep learning per i dati tabulari. | Colab Scheda del modello |
MaMMUT | Linguaggio, visione | Un'architettura di encoder e decoder di testo per la multimodale come la risposta alle domande visive, il recupero del testo delle immagini recupero di immagini di testo e generazione di incorporamenti multimodali. | Colab Scheda del modello |
Elenco dei modelli dei partner disponibili in Model Garden
La seguente tabella elenca i modelli disponibili presso i partner di Google in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
Antropo Claude 3.5 Sonetto | Lingua | il modello di AI più potente di Anthropic la velocità e il costo di Anthropic Claude 3 Sonnet. | Scheda del modello |
Antropo Claude 3 Opus | Lingua | Il secondo modello di AI di Anthropic, con solide il rendimento in attività altamente complesse. | Scheda del modello |
Haiku - Claude 3 - Antropo | Lingua | La visione più veloce e compatta di Anthropic di testo che fornisce risposte rapide a query dirette. È destinato alle esperienze di AI che imitano le interazioni umane. | Scheda del modello |
Sonetto antropico Claude 3 | Lingua | Un modello di visione artificiale e di testo che bilancia le prestazioni e la velocità per elaborare i carichi di lavoro aziendali. È progettata per offrire e deployment di AI scalati. | Scheda del modello |
Llama 3.1 405B | Lingua | Il software più potente e versatile di Meta un modello di machine learning. È il più grande modello di base disponibile al pubblico, fornendo funzionalità dalla generazione di dati sintetici al modello distillazione, sterzabilità, matematica, uso di strumenti, traduzione multilingue e altro ancora. | Scheda del modello |
Mistral grande (2407) | Lingua | Mistral Large (2407) è il nome modello principale per la generazione di testo. Raggiunge le valutazioni migliori e può essere utilizzato per attività multilingue complesse, come comprensione del testo, trasformazione e generazione di codice. | Scheda del modello |
Nemo di Mistral | Lingua | Il prodotto proprietario più conveniente di Mistral AI un modello di machine learning. Usa carichi di lavoro a bassa latenza di Mistral Nemo e semplici che possono essere eseguite in blocco, come la classificazione, assistenza tecnica e generazione di testi. | Scheda del modello |
Codestral | Codice | Un modello generativo progettato specificatamente e ottimizzati per la generazione di codice. Puoi utilizzare Codestral per progettare applicazioni AI avanzate. | Scheda del modello |
Come utilizzare le schede del modello
Fai clic sulla scheda di un modello per utilizzare il modello associato. Ad esempio, puoi fare clic sulla scheda di un modello per testare i prompt, ottimizzare un modello, creare applicazioni e visualizzare esempi di codice.
Per scoprire come utilizzare i modelli associati alle schede dei modelli, fai clic su una delle seguenti schede:
Testare i prompt
Utilizzare la scheda del modello dell'API Vertex AI PaLM per testare i prompt.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato che vuoi testare e fai clic su Visualizza dettagli.
Fai clic su Apri progettazione prompt.
Si apre la pagina Progettazione prompt.
In Prompt, inserisci il prompt che vuoi testare.
(Facoltativo) Configura i parametri del modello.
Fai clic su Invia.
Ottimizza un modello
Per ottimizzare i modelli supportati, utilizza una pipeline Vertex AI o un blocco note.
Ottimizza utilizzando una pipeline
I modelli BERT e T5-FLAN supportano l'ottimizzazione dei modelli tramite una pipeline.
Nella console Google Cloud, vai alla pagina Model Garden.
In Cerca modelli, inserisci BERT o T5-FLAN, quindi fai clic sul pulsante lente d'ingrandimento per cercare.
Fai clic su Visualizza dettagli nella scheda del modello T5-FLAN o BERT.
Fai clic su Apri pipeline di ottimizzazione.
Si apre la pagina Vertex AI Pipelines.
Per avviare l'ottimizzazione, fai clic su Crea esecuzione.
Sintonizzati su un blocco note
Le schede del modello per la maggior parte dei modelli di base open source e ottimizzabili supportano l'ottimizzazione in un blocco note.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato che vuoi ottimizzare e fai clic su Visualizza dettagli.
Fai clic su Apri blocco note.
Esegui il deployment di un modello
La scheda del modello per il modello Stable Diffusion supporta il deployment endpoint.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato di cui vuoi eseguire il deployment. Nella scheda del modello, fai clic su Visualizza dettagli.
Fai clic su Esegui il deployment.
Ti viene chiesto di salvare una copia del modello registro dei modelli.
In Nome modello, inserisci un nome per il modello.
Fai clic su Salva.
Viene visualizzato il riquadro Esegui il deployment nell'endpoint.
Definisci l'endpoint come segue:
- Nome endpoint: inserisci un nome per l'endpoint.
- Regione: seleziona una regione in cui creare l'endpoint.
- Accesso: per rendere l'endpoint accessibile tramite un'API REST, seleziona Standard. Per creare una connessione privata endpoint, seleziona Privato.
Fai clic su Continua.
Segui le istruzioni nella console Google Cloud e configura le impostazioni del modello.
Fai clic su Continua.
(Facoltativo) Fai clic sul pulsante di attivazione/disattivazione Abilita il monitoraggio del modello per questo endpoint per abilitare il monitoraggio del modello.
Fai clic su Esegui il deployment.
Visualizza esempi di codice
La maggior parte delle schede dei modelli per le soluzioni specifiche per le attività contiene codice puoi copiare e testare.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato per il quale vuoi visualizzare gli esempi di codice e fai clic la scheda Documentazione.
La pagina scorre fino alla sezione della documentazione con il codice campione incorporate nella struttura.
Crea un'app Vision
Le schede dei modelli per i modelli di visione artificiale applicabili supportano la creazione di un per la visione artificiale.
Nella console Google Cloud, vai alla pagina Model Garden.
Nella sezione Soluzioni specifiche delle attività, trova un modello di visione artificiale che ti interessa. da utilizzare per creare un'applicazione di visione artificiale e fai clic su Visualizza dettagli.
Fai clic su Crea app.
Si apre Vertex AI Vision.
In Nome applicazione, inserisci un nome per l'applicazione e fai clic su Continua.
Seleziona un piano di fatturazione e fai clic su Crea.
Si apre Vertex AI Vision Studio, dove puoi continuare nella creazione di un'applicazione di visione artificiale.
Prezzi
Per i modelli open source in Model Garden, ti viene addebitato l'utilizzo su Vertex AI:
- Ottimizzazione del modello: ti vengono addebitati i costi per le risorse di computing utilizzate allo stesso modo come addestramento personalizzato. Consulta i prezzi dell'addestramento personalizzato.
- Deployment del modello: ti vengono addebitate le risorse di computing utilizzate per il deployment del modello su un endpoint. Vedi i prezzi delle previsioni.
- Colab Enterprise: consulta i prezzi di Colab Enterprise.
Passaggi successivi
- Scopri di più sulle best practice per l'IA responsabile e sui filtri di sicurezza di Vertex AI.
- Scopri di più sull'IA generativa su Vertex AI.
- Scopri come ottimizzare i modelli di base.