L'IA generativa su Vertex AI (nota anche come genAI o genAI) ti dà accesso ai modelli Gemini e ad altri modelli di IA generativa di grandi dimensioni in modo da poterli valutare, ottimizzare ed eseguire il deployment per l'utilizzo nelle tue applicazioni basate sull'IA. Questa pagina offre una panoramica del flusso di lavoro dell'IA generativa su Vertex AI, delle API e dei modelli disponibili, inclusa l'API Vertex AI per Gemini, e ti indirizza alle risorse per iniziare.
Flusso di lavoro dell'IA generativa in Vertex AI
Il seguente diagramma mostra una panoramica generale del flusso di lavoro dell'AI generativa.
Prompt
|
Il flusso di lavoro dell'AI generativa in genere inizia dai prompt. Un prompt è una richiesta inviata a un modello di AI generativa per ottenere una risposta. A seconda del modello, un prompt può contenere testo, immagini, video, audio, documenti e altre modalità o anche più modalità (multimodali). Creare un prompt per ottenere la risposta desiderata dal modello è una pratica chiamata progettazione dei prompt. Sebbene la progettazione dei prompt sia un processo basato su tentativi ed errori, esistono dei principi e delle strategie di progettazione dei prompt che puoi utilizzare per spingere il modello a comportarsi nel modo desiderato. Vertex AI Studio offre uno strumento di gestione dei prompt per aiutarti a gestirli. |
Modelli di base
|
I prompt vengono inviati a un modello di AI generativa per la generazione di risposte. Vertex AI offre una varietà di modelli di base di IA generativa accessibili tramite un'API gestita, tra cui:
I modelli differiscono per dimensioni, modalità e costo. In Model Garden puoi esplorare i modelli Google, nonché quelli aperti e quelli dei partner di Google. |
Personalizzazione dei modelli
|
Puoi personalizzare il comportamento predefinito dei modelli di base di Google in modo che generino in modo coerente i risultati desiderati senza utilizzare prompt complessi. Questo processo di personalizzazione è chiamato ottimizzazione del modello. L'ottimizzazione del modello consente di ridurre i costi e la latenza delle richieste semplificando i prompt. Vertex AI offre anche strumenti di valutazione del modello per aiutarti a valutare le prestazioni del tuo modello ottimizzato. Quando il modello ottimizzato è pronto per la produzione, puoi eseguire il deployment in un endpoint e monitorare le prestazioni come nei flussi di lavoro MLOps standard. |
Richiedi aumento
|
Vertex AI offre diversi metodi di aumento delle richieste che consentono al modello di accedere ad API esterne e a informazioni in tempo reale.
|
Verifica delle citazioni
|
Dopo aver generato la risposta, Vertex AI controlla se nella risposta devono essere incluse delle citazioni. Se una quantità significativa del testo nella risposta proviene da una determinata fonte, questa viene aggiunta ai metadati della citazione nella risposta. |
AI responsabile e sicurezza
|
L'ultimo livello di controlli a cui vengono sottoposti il prompt e la risposta prima di essere restituiti sono i filtri di sicurezza. Vertex AI controlla sia il prompt che la risposta per verificare in che misura il prompt o la risposta appartengono a una categoria di sicurezza. Se la soglia viene superata per una o più categorie, la risposta viene bloccata e Vertex AI restituisce una risposta di riserva. |
Risposta
|
Se il prompt e la risposta superano i controlli del filtro di sicurezza, viene restituita la risposta. In genere, la risposta viene restituita collettivamente. Tuttavia, con Vertex AI puoi anche ricevere le risposte in modo progressivo man mano che vengono generate abilitando i flussi. |
API e modelli di IA generativa
I modelli di IA generativa disponibili in Vertex AI, detti anche modelli di base, sono classificati in base al tipo di contenuto per il quale sono stati progettati. Questi contenuti includono testo, chat, immagini, codice, video, dati multimodali e incorporamenti. Ogni modello viene esposto tramite un endpoint del publisher specifico per il tuo progetto Google Cloud, quindi non è necessario eseguire il deployment del modello di base, a meno che tu non debba ottimizzarlo per un caso d'uso specifico.
Offerte dell'API Gemini
L'API Vertex AI Gemini contiene gli endpoint degli editori per i modelli Gemini sviluppati da Google DeepMind. Puoi provare l'API Vertex AI per Gemini in questa guida rapida.
- Gemini 1.5 Flash è un modello multimodale che puoi utilizzare per creare applicazioni di generazione di testo e chat. Puoi includere testo, immagini, audio, video e file PDF nelle richieste di prompt e ha la stessa finestra contestuale di Gemini 1.5 Pro per elaborare grandi quantità di dati multimodali. Gemini 1.5 Flash è più piccolo e più veloce di Gemini 1.5 Pro, il che lo rende una buona opzione per creare assistenti per la chat e applicazioni di generazione di contenuti on demand.
- Gemini 1.5 Pro supporta i prompt multimodali. Puoi includere testo, immagini, audio, video e file PDF nelle richieste di prompt e ottenere risposte di testo o codice. Gemini 1.5 Pro può elaborare raccolte più ampie di immagini, documenti di testo più grandi e video più lunghi rispetto a Gemini 1.0 Pro Vision.
- Gemini 1.0 Pro è progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice.
- Gemini 1.0 Pro Vision supporta i prompt multimodali. Puoi includere testo, immagini, video e PDF nelle tue richieste di prompt e ottenere risposte di testo o codice.
La tabella seguente mostra alcune differenze tra i modelli Gemini che possono aiutarti a scegliere quello più adatto a te:
Modello Gemini | Modalità | Finestra di contesto |
---|---|---|
Gemini 1.5 Flash |
|
|
Gemini 1.5 Pro |
|
|
Gemini 1.0 Pro / Gemini 1.0 Pro Vision |
|
|
Altre offerte di IA generativa
Incorporamento del testo genera incorporamenti vettoriali per il testo di input. Puoi usare gli incorporamenti per attività come ricerca semantica, suggerimento, classificazione e rilevamento di outlier.
L'incorporamento multimodale genera incorporamenti vettoriali basati su input di immagini e testo. Questi incorporamenti possono essere utilizzati in un secondo momento per altre attività successive come la classificazione delle immagini o i suggerimenti sui contenuti.
Imagen, il nostro modello di base da testo a immagine, ti consente di generare e personalizzare immagini di livello professionale su larga scala.
I modelli partner sono un elenco selezionato di modelli di AI generativa sviluppati da aziende partner di Google. Questi modelli di AI generativa vengono offerti come API gestite. Ad esempio, Anthropic fornisce i suoi modelli Claude come servizio su Vertex AI.
Sono disponibili modelli aperti, come Llama, di cui puoi eseguire il deployment su Vertex AI o altre piattaforme.
MedLM è una famiglia di modelli di base ottimizzati per il settore sanitario.
Certificazioni e controlli di sicurezza
Vertex AI supporta CMEK, Controlli di servizio VPC, residenza dei dati e Access Transparency. Esistono alcune limitazioni alle funzionalità di IA generativa. Per ulteriori informazioni, vedi Controlli di sicurezza dell'IA generativa.
Esperienze nella console di Vertex AI Studio
Quando utilizzi Vertex AI Studio con la prova gratuita o senza accedere a Google Cloud, alcune funzionalità non sono disponibili. Per provare Vertex AI Studio, accetta la finestra dei Termini di servizio di Vertex AI Studio nella console Google Cloud.
Utilizza senza un account Google Cloud | Utilizza con un account di prova gratuito di Google Cloud | Utilizza con un account Google Cloud esistente | |
---|---|---|---|
Accesso obbligatorio | No | Sì | Sì |
Query al minuto (QPM) | 2 Q/M | N/A | N/A |
Crediti offerti | 0 $ | Fino a 300 € per 90 giorni | 0 $ |
Galleria dei prompt | No | Sì | Sì |
Designer del prompt | Sì | Yes | Sì |
Salva i prompt | No | Sì | Sì |
Cronologia dei prompt | No | Sì | Sì |
Parametri avanzati | No | No | Sì |
Ottimizzazione | No | No | Sì |
Utilizzo delle API | No | Sì | Sì |
Fatturazione obbligatoria | No | No | Sì |
Come iniziare | Vai a Vertex AI Studio | Registrati per una prova gratuita | Prova Vertex AI Studio nella console |
Altri modi per iniziare
- Prova un tutorial rapido utilizzando Vertex AI Studio o l'API Vertex AI.
- Esplora i modelli preaddestrati in Model Garden.
- Esplora il riferimento dell'SDK dell'API Vertex AI Gemini per Python, Node.js, Java, Go o C#.
- Scopri come ottimizzare un modello di base.
- Scopri di più sulle best practice per l'IA responsabile e sui filtri di sicurezza di Vertex AI.
- Scopri di più su quote e limiti.
- Scopri di più sui pricing.
- Scopri di più su come chiamare Gemini utilizzando la libreria OpenAI.