Esplora i modelli di IA in Model Garden

Model Garden nella console Google Cloud è una libreria di modelli ML che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di modelli e asset OSS di proprietà di Google e selezionati.

Gli argomenti seguenti presentano i modelli di AI disponibili in Model Garden e come utilizzarli.

Esplora i modelli

Per visualizzare l'elenco dei modelli Vertex AI e di base open source disponibili, ottimizzabili e specifici per le attività, vai alla pagina di Model Garden nella console Google Cloud.

Vai a Model Garden

Le categorie di modelli disponibili in Model Garden sono:

Categoria Descrizione
Modelli di base Modelli di grandi dimensioni multitasking preaddestrati che possono essere ottimizzati o personalizzati per attività specifiche utilizzando Vertex AI Studio, l'API Vertex AI e l'SDK Vertex AI per Python.
Modelli ottimizzabili Modelli che possono essere perfezionati mediante una pipeline o un blocco note personalizzato.
Soluzioni specifiche per le attività La maggior parte di questi modelli predefiniti è pronta per l'uso. Molti possono essere personalizzati utilizzando i tuoi dati.

Per filtrare i modelli nel riquadro dei filtri, specifica quanto segue:

  • Modalità: fai clic sulle modalità (tipi di dati) da inserire nel modello.
  • Attività: fai clic sull'attività che deve essere eseguita dal modello.
  • Caratteristiche: fai clic sulle caratteristiche da inserire nel modello.

Per scoprire di più su ciascun modello, fai clic sulla relativa scheda.

Modelli disponibili in Model Garden

Puoi trovare i modelli proprietari di Google e alcuni modelli open source in Model Garden.

Elenco dei modelli proprietari di Google

La seguente tabella elenca i modelli proprietari di Google disponibili in Model Garden:

Nome modello Modalità Descrizione Guide rapide
Gemini 1.5 Flash Linguaggio, audio, visione Il modello multimodale Gemini più veloce ed economico. È progettata per attività ad alto volume e applicazioni convenienti e sensibili alla latenza. Grazie alla sua reattività Gemini 1.5 Flash, è una buona opzione per creare assistenti per la chat e applicazioni di generazione di contenuti on demand. Scheda del modello
Gemini 1.5 Pro Linguaggio, audio, visione Modello multimodale che supporta l'aggiunta di file immagine, audio, video e PDF in prompt di testo o chat per una risposta di testo o codice. Scheda del modello
Gemini 1.0 Pro Lingua Progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice. Scheda del modello
Gemini 1.0 Pro Vision Linguaggio, visione Modello multimodale che supporta l'aggiunta di file immagine, video e PDF in prompt di testo o di chat per una risposta di testo o codice. Scheda del modello
PaLM 2 per il testo Lingua Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto a una varietà di attività relative alle lingue. Scheda del modello
PaLM 2 per la chat Lingua Ottimizzato per condurre conversazioni naturali. Utilizza questo modello per creare e personalizzare la tua applicazione di chatbot. Scheda del modello
Codey per il completamento del codice Lingua Genera codice basato su prompt di codice. Ideale per i suggerimenti di codice e la riduzione al minimo dei bug nel codice. Scheda del modello
Codey per la generazione del codice Lingua Genera codice basato sull'input in linguaggio naturale. Ideale per scrivere funzioni, classi, test delle unità e altro ancora. Scheda del modello
Codey per la chat di codice Lingua Ricevi assistenza correlata al codice attraverso una conversazione naturale. Ideale per domande su un'API, sintassi in una lingua supportata e altro ancora. Scheda del modello
Incorporamenti per il testo Lingua Converte i dati testuali in vettori numerici che possono essere elaborati da algoritmi di machine learning, in particolare i modelli di grandi dimensioni. Scheda del modello
Imagen per la generazione di immagini Visione artificiale Crea o modifica immagini di livello professionale su larga scala utilizzando prompt di testo. Scheda del modello
Imagen per sottotitoli codificati e VQA Lingua Genera una descrizione pertinente per una determinata immagine. Scheda del modello
Incorporamenti per multimodali Visione artificiale Genera vettori basati su immagini che possono essere utilizzati per attività downstream come la classificazione e la ricerca di immagini. Scheda del modello
Cip Parlato Una versione di un Universal Speech Model che ha oltre 2 miliardi di parametri e può trascrivere in oltre 100 lingue in un unico modello. Scheda del modello

Elenco di modelli con ricette per l'ottimizzazione o la pubblicazione open source in Model Garden

La tabella seguente elenca i modelli OSS che supportano l'ottimizzazione open source o la pubblicazione di formule in Model Garden:

Nome modello Modalità Descrizione Guida rapida
E5 Lingua Esegui il deployment di E5, una serie di modelli di incorporamento del testo. Colab
Scheda del modello
ID istantaneo Linguaggio, visione Esegui il deployment di Instant ID, un modello di generazione da testo a immagine che garantisce la protezione dell'identità. Colab
Scheda del modello
Lama 3 Lingua Esplora e crea con i modelli Llama 3 di Meta (8B, 70B) su Vertex AI. Scheda del modello
Gemma Lingua Modelli di peso aperti (2B, 7B) basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. Scheda del modello
CodeGemma Lingua Modelli di peso aperti (2B, 7B) progettati per la generazione e il completamento del codice basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. Scheda del modello
PaliGemma Lingua Modello 3B di peso aperto progettato per attività di didascalie delle immagini, domande visive e risposta, basato sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini di Google. Scheda del modello
Vicuna v1.5 Lingua Esegui il deployment dei modelli della serie Vicuna v1.5, ovvero modelli di base ottimizzati da LLama2 per la generazione di testo. Scheda del modello
NLLB Lingua Esegui il deployment di modelli della serie nllb per la traduzione multilingue. Scheda del modello
Colab
Mistral-7B Lingua Esegui il deployment di Mistral-7B, un modello di base per la generazione di testo. Scheda del modello
Colab
BioGPT Lingua Esegui il deployment di BioGPT, un modello generativo di testo per il dominio biomedica. Scheda del modello
Colab
BiomedCLIP Linguaggio, visione Esegui il deployment di BiomedCLIP, un modello di base multimodale per il dominio biomedico. Scheda del modello
Colab
ImageBind Linguaggio, visione artificiale,
audio
Esegui il deployment di ImageBind, un modello di base per l'incorporamento multimodale. Scheda del modello
Colab
DITO Linguaggio, visione Ottimizza ed esegui il deployment di DITO, un modello di base multimodale per attività di rilevamento di oggetti vocabolario aperti. Scheda del modello
Colab
OWL-ViT versione 2 Linguaggio, visione Esegui il deployment di OWL-ViT v2, un modello di base multimodale per attività di rilevamento aperte degli oggetti del vocabolario. Scheda del modello
Colab
FaceStylizer (Mediapipe) Visione artificiale Una pipeline generativa per trasformare le immagini dei volti umani in un nuovo stile. Scheda del modello
Colab
Llama 2 Lingua Ottimizza ed esegui il deployment dei modelli di base Llama 2 di Meta (7B, 13B, 70B) su Vertex AI. Scheda del modello
Code Llama Lingua Esegui il deployment dei modelli di base Code Llama di Meta (7B, 13B, 34B) su Vertex AI. Scheda del modello
Istruzioni Falcon Lingua Ottimizza ed esegui il deployment dei modelli Falcon-instruct (7B, 40B) utilizzando PEFT. Colab
Scheda del modello
OpenLLaMA Lingua Ottimizza ed esegui il deployment dei modelli OpenLLaMA (3B, 7B, 13B) utilizzando PEFT. Colab
Scheda del modello
T5-FLAN Lingua Ottimizza e distribuisci T5-FLAN (base, piccolo, grande). Scheda del modello (pipeline di ottimizzazione inclusa)
BERT Lingua Ottimizza ed esegui il deployment di BERT utilizzando PEFT. Colab
Scheda del modello
BART-grandi-cnn Lingua Esegui il deployment di BART, un modello encoder-encoder (seq2seq) a trasformatore con un encoder bidirezionale (simile a BERT) e un decoder autoregressivo (simile a GPT). Colab
Scheda del modello
RoBERTa-grandi Lingua Ottimizza ed esegui il deployment di RoBERTa-large utilizzando PEFT. Colab
Scheda del modello
XLM-RoBERTa-grandi Lingua Ottimizza e distribuisci XLM-RoBERTa-large (una versione multilingue di RoBERTa) utilizzando PEFT. Colab
Scheda del modello
Dolly-v2-7b Lingua Esegui il deployment di Dolly-v2-7b, un modello linguistico di grandi dimensioni (LLM) basato sulle istruzioni con 6,9 miliardi di parametri. Colab
Scheda del modello
Stable Diffusion v1.5 Linguaggio, visione Modello di diffusione latente da testo a immagine in grado di generare immagini fotorealistiche quando viene fornito un input di testo. Scheda del modello
Stable Diffusion XL v1.0 Linguaggio, visione Esegui il deployment di Stable Diffusion XL v1.0, che supporta la generazione da testo a immagine. Colab
Scheda del modello
Stable Diffusion XL Lightning Linguaggio, visione Esegui il deployment di Stable Diffusion XL Lightning, un modello di generazione da testo a immagine. Colab
Scheda del modello
Stable Diffusion v2.1 Linguaggio, visione Ottimizza ed esegui il deployment di Stable Diffusion v2.1 (supporta la generazione da testo a immagine) utilizzando Dreambooth. Colab
Scheda del modello
raffinatore di ricerca Stable Diffusion 4x Linguaggio, visione Esegui il deployment di Stable Diffusion 4x, che supporta la superrisoluzione delle immagini condizionate dal testo. Colab
Scheda del modello
InstructPix2Pix Linguaggio, visione Esegui il deployment di InstructPix2Pix, che supporta la modifica delle immagini tramite prompt di testo. Colab
Scheda del modello
Inpainting a diffusione stabile Linguaggio, visione Ottimizza ed esegui il deployment di Stable Diffusion Inpainting, che supporta l'inpainting di un'immagine mascherata mediante un prompt di testo. Colab
Scheda del modello
SAM Linguaggio, visione Esegui il deployment di Segment Anything, che supporta la segmentazione delle immagini zero-shot. Colab
Scheda del modello
Da testo a video (ModelScope) Linguaggio, visione Esegui il deployment di ModelScope da testo a video, che supporta la generazione da testo a video. Colab
Scheda del modello
Zero-shot da testo a video Linguaggio, visione Esegui il deployment dei generatori da testo a video Stable Diffusion, che supportano la generazione da testo a video zero-shot. Colab
Scheda del modello
Recupero immagine composta da Pic2Word Linguaggio, visione Esegui il deployment di Pic2Word, che supporta il recupero di immagini composte multimodali. Colab
Scheda del modello
BLIP2 Linguaggio, visione Esegui il deployment di BLIP2, che supporta le didascalie delle immagini e la risposta alle domande visive. Colab
Scheda del modello
Apri/CLIP Linguaggio, visione Ottimizza ed esegui il deployment di Open-CLIP, che supporta la classificazione zero-shot. Colab
Scheda del modello
F-VLM Linguaggio, visione Esegui il deployment di F-VLM, che supporta il rilevamento di oggetti immagine vocabolario aperti. Colab
Scheda del modello
tfhub/EfficientNetV2 Visione artificiale Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
EfficientNetV2 (TIMM) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
Proprietario/EfficientNetV2 Visione artificiale Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini EfficientNetV2. Colab
Scheda del modello
EfficientNetLite (MediaPipe) Visione artificiale Ottimizza il modello di classificazione delle immagini EfficientNetLite tramite il creatore di modelli MediaPipe. Colab
Scheda del modello
tfvision/vit Visione artificiale Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di classificazione delle immagini ViT. Colab
Scheda del modello
ViT (TIMM) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ViT. Colab
Scheda del modello
Proprietario/ViT Visione artificiale Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ViT. Colab
Scheda del modello
Proprietario/MaxViT Visione artificiale Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di classificazione delle immagini ibrido MaxViT (CNN + ViT). Colab
Scheda del modello
ViT (JAX) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione JAX del modello di classificazione delle immagini ViT. Colab
Scheda del modello
tfvision/SpineNet Visione artificiale Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti SpineNet. Colab
Scheda del modello
Proprietario/Spinenet Visione artificiale Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di rilevamento degli oggetti SpineNet. Colab
Scheda del modello
tfvision/YOLO Visione artificiale Perfeziona ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti a una fase YOLO. Colab
Scheda del modello
Proprietario/YOLO Visione artificiale Ottimizza ed esegui il deployment del checkpoint proprietario Google del modello di rilevamento degli oggetti a un livello di YOLO. Colab
Scheda del modello
YOLOv8 (Keras) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione Keras del modello YOLOv8 per il rilevamento degli oggetti. Colab
Scheda del modello
tfvision/YOLOv7 Visione artificiale Ottimizza ed esegui il deployment del modello YOLOv7 per il rilevamento degli oggetti. Colab
Scheda del modello
Rilevamento di oggetti video ByteTrack Visione artificiale Esegui la previsione batch per il tracciamento di oggetti video utilizzando il tracker ByteTrack. Colab
Scheda del modello
ResNeSt (TIMM) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ResNeSt. Colab
Scheda del modello
ConvNeXt (TIMM) Visione artificiale Ottimizza ed esegui il deployment di ConvNeXt, un modello convoluzionale puro per la classificazione delle immagini ispirato al design dei Transformer Vision. Colab
Scheda del modello
CspNet (TIMM) Visione artificiale Ottimizza ed esegui il deployment del modello di classificazione delle immagini CSPNet (Cross Stage Partial Network). Colab
Scheda del modello
Inception (TIMM) Visione artificiale Ottimizza ed esegui il deployment del modello di classificazione delle immagini Inception. Colab
Scheda del modello
DeepLabv3+ (con checkpoint) Visione artificiale Ottimizza ed esegui il deployment del modello DeepLab-v3 Plus per la segmentazione semantica dell'immagine. Colab
Scheda del modello
R-CNN più veloce (Detectron2) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione Detectron2 del modello R-CNN più veloce per il rilevamento degli oggetti immagine. Colab
Scheda del modello
RetinaNet (Detectron2) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione Detectron2 del modello RetinaNet per il rilevamento degli oggetti immagine. Colab
Scheda del modello
Maschera R-CNN (Detectron2) Visione artificiale Ottimizza e distribuisci l'implementazione Detectron2 del modello Mask R-CNN per il rilevamento e la segmentazione degli oggetti immagine. Colab
Scheda del modello
ControlNet Visione artificiale Ottimizza ed esegui il deployment del modello di generazione da testo a immagine ControlNet. Colab
Scheda del modello
MobileNet (TIMM) Visione artificiale Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini MobileNet. Colab
Scheda del modello
Classificazione delle immagini MobileNetV2 (MediaPipe) Visione artificiale Ottimizza il modello di classificazione delle immagini MobileNetV2 utilizzando il creatore di modelli MediaPipe. Colab
Scheda del modello
Rilevamento di oggetti MobileNetV2 (MediaPipe) Visione artificiale Ottimizza il modello di rilevamento degli oggetti MobileNetV2 utilizzando il creatore di modelli MediaPipe. Colab
Scheda del modello
MobileNet-MultiHW-AVG (MediaPipe) Visione artificiale Ottimizza il modello di rilevamento degli oggetti MobileNet-MultiHW-AVG utilizzando il creatore di modelli MediaPipe. Colab
Scheda del modello
DeiT Visione artificiale Ottimizza ed esegui il deployment del modello DeiT (Data-efficient Image Transformer) per la classificazione delle immagini. Colab
Scheda del modello
BEIT Visione artificiale Ottimizza ed esegui il deployment del modello BEiT (Bidirectional Encoderpresentation from Image Transformers) per la classificazione delle immagini. Colab
Scheda del modello
Riconoscimento dei gesti della mano (MediaPipe) Visione artificiale Ottimizza e distribuisci sul dispositivo i modelli di riconoscimento dei gesti della mano utilizzando MediaPipe. Colab
Scheda del modello
Classificatore medio di incorporamento di parole (MediaPipe) Visione artificiale Ottimizza e distribuisci sul dispositivo i modelli di classificazione dell'incorporamento di parole medio utilizzando MediaPipe. Colab
Scheda del modello
Classificatore MobileBERT (MediaPipe) Visione artificiale Ottimizza e distribuisci sul dispositivo i modelli MobileBERT Classifier utilizzando MediaPipe. Colab
Scheda del modello
Classificazione dei video clip MoViNet Video Ottimizza ed esegui il deployment dei modelli di classificazione dei video clip MoViNet. Colab
Scheda del modello
Riconoscimento delle azioni video MoViNet Video Ottimizza ed esegui il deployment dei modelli MoViNet per l'inferenza del riconoscimento delle azioni. Colab
Scheda del modello
MCM di Stable Diffusion XL Visione artificiale Esegui il deployment di questo modello che utilizza il modello di coerenza latente (LCM) per migliorare la generazione da testo a immagine nei modelli a diffusione latente, consentendo una creazione di immagini più rapida e di alta qualità con meno passaggi. Colab
Scheda del modello
LLaVA 1.5 Visione, linguaggio Esegui il deployment dei modelli LLaVA 1.5. Colab
Scheda del modello
PyTorch-ZipNeRF Visione artificiale, video Addestra il modello Pytorch-ZipNeRF, che è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata a partire da immagini 2D. Colab
Scheda del modello
Mixtral 8x7B Lingua Esegui il deployment del modello Mixtral 8x7B, che è un modello linguistico di grandi dimensioni (LLM) sviluppato da Mistral AI. Si tratta di un modello solo decoder con 46,7 miliardi di parametri e secondo molti benchmark corrisponde o supera LLaMA 2 70B e GPT 3.5. Colab
Scheda del modello
Lama 2 (quantificato) Lingua Perfeziona ed esegui il deployment di una versione quantizzata dei modelli Llama 2 di Meta. Colab
Scheda del modello
LaMa (Large Mask Inpainting) Visione artificiale Esegui il deployment di LaMa, che utilizza convoluzioni di Fourier (FFC), un'elevata perdita percettiva del campo ricettivo e grandi maschere di addestramento che consentono un inpainting delle immagini con una risoluzione elevata. Colab
Scheda del modello
AutoGluon Tabulari Con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per i dati tabulari. Colab
Scheda del modello

Elenco dei modelli dei partner disponibili in Model Garden

Nella tabella seguente sono elencati i modelli disponibili presso i partner di Google in Model Garden:

Nome modello Modalità Descrizione Guida rapida
L'opus antropico Claude 3 Lingua Il modello più avanzato di Anthropic nell'esecuzione rapida di attività complesse. È progettato per rispondere a prompt aperti e a nuovi scenari. Scheda del modello
L'antropo Claude 3 Sonnet Lingua Un modello di visione artificiale e di testo che bilancia prestazioni e velocità per elaborare i carichi di lavoro aziendali. È progettato per deployment AI scalabili e a basso costo. Scheda del modello
Claude 3: haiku antropico Lingua Il modello di visione e testo più veloce e compatto di Anthropic che fornisce risposte rapide a query dirette. È destinato alle esperienze di AI che imitano le interazioni umane. Scheda del modello

Come utilizzare le schede del modello

Fai clic sulla scheda di un modello per utilizzare il modello associato. Ad esempio, puoi fare clic sulla scheda di un modello per testare i prompt, ottimizzare un modello, creare applicazioni e visualizzare esempi di codice.

Per scoprire come utilizzare i modelli associati alle schede dei modelli, fai clic su una delle seguenti schede:

Testare i prompt

Utilizzare la scheda del modello dell'API Vertex AI PaLM per testare i prompt.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato che vuoi testare e fai clic su Visualizza dettagli.

  3. Fai clic su Apri progettazione prompt.

    Si apre la pagina Progettazione prompt.

  4. In Prompt, inserisci il prompt che vuoi testare.

  5. (Facoltativo) Configura i parametri del modello.

  6. Fai clic su Invia.

Ottimizza un modello

Per ottimizzare i modelli supportati, utilizza una pipeline Vertex AI o un blocco note.

Ottimizza utilizzando una pipeline

I modelli BERT e T5-FLAN supportano l'ottimizzazione dei modelli tramite una pipeline.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. In Cerca modelli, inserisci BERT o T5-FLAN, poi fai clic sulla lente d'ingrandimento per cercare.

  3. Fai clic su Visualizza dettagli nella scheda del modello T5-FLAN o BERT.

  4. Fai clic su Apri pipeline di ottimizzazione.

    Si apre la pagina Vertex AI Pipelines.

  5. Per avviare l'ottimizzazione, fai clic su Crea esecuzione.

Sintonizzati su un blocco note

Le schede dei modelli per la maggior parte dei modelli di base open source e dei modelli ottimizzabili supportano l'ottimizzazione in un blocco note.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato che vuoi ottimizzare e fai clic su Visualizza dettagli.

  3. Fai clic su Apri blocco note.

Deployment di un modello

La scheda del modello per il modello Stable Diffusion supporta il deployment in un endpoint.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato di cui vuoi eseguire il deployment. Nella scheda del modello, fai clic su Visualizza dettagli.

  3. Fai clic su Esegui il deployment.

    Ti viene chiesto di salvare una copia del modello nel registro dei modelli.

  4. In Nome modello, inserisci un nome per il modello.

  5. Fai clic su Salva.

    Viene visualizzato il riquadro Esegui il deployment nell'endpoint.

  6. Definisci l'endpoint come segue:

    • Nome endpoint: inserisci un nome per l'endpoint.
    • Regione: seleziona una regione in cui creare l'endpoint.
    • Accesso: per rendere l'endpoint accessibile tramite un'API REST, seleziona Standard. Per creare una connessione privata all'endpoint, seleziona Privato.
  7. Fai clic su Continua.

  8. Segui le istruzioni nella console Google Cloud e configura le impostazioni del tuo modello.

  9. Fai clic su Continua.

  10. (Facoltativo) Fai clic sul pulsante di attivazione/disattivazione Abilita il monitoraggio del modello per questo endpoint per abilitare il monitoraggio del modello.

  11. Fai clic su Esegui il deployment.

Visualizza esempi di codice

La maggior parte delle schede dei modelli per i modelli di soluzioni specifiche per le attività contiene esempi di codice che puoi copiare e testare.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello supportato per il quale vuoi visualizzare esempi di codice e fai clic sulla scheda Documentazione.

  3. La pagina scorre fino alla sezione della documentazione con il codice campione incorporato.

Crea un'app Vision

Le schede dei modelli per i modelli di visione artificiale applicabili supportano la creazione di un'applicazione per la visione artificiale.

  1. Nella console Google Cloud, vai alla pagina Model Garden.

    Vai a Model Garden

  2. Trova un modello di visione artificiale nella sezione Soluzioni specifiche dell'attività da utilizzare per creare un'applicazione di visione artificiale e fai clic su Visualizza dettagli.

  3. Fai clic su Crea app.

    Si apre Vertex AI Vision.

  4. In Nome applicazione, inserisci un nome per l'applicazione e fai clic su Continua.

  5. Seleziona un piano di fatturazione e fai clic su Crea.

    Si apre Vertex AI Vision Studio, dove puoi continuare a creare la tua applicazione di visione artificiale.

Prezzi

Per i modelli open source in Model Garden, ti viene addebitato l'utilizzo dei seguenti elementi su Vertex AI:

Passaggi successivi