L'IA generativa su Vertex AI (nota anche come genAI o IA generativa) ti dà accesso ai modelli Gemini e ad altri grandi modelli di IA generativa in modo da poterli valutare, ottimizzare ed eseguire il deployment per l'uso nelle tue applicazioni basate sull'IA. Questa pagina fornisce una panoramica del flusso di lavoro dell'IA generativa su Vertex AI, delle API e dei modelli disponibili, inclusa l'API Vertex AI per Gemini, e ti indirizza alle risorse per iniziare.
Flusso di lavoro dell'IA generativa in Vertex AI
Il seguente diagramma mostra una panoramica generale del flusso di lavoro dell'AI generativa.
Prompt
Il flusso di lavoro dell'AI generativa in genere inizia con i prompt. Un prompt è una richiesta inviata a un modello di AI generativa per generare una risposta. A seconda del modello, un prompt può contenere testo, immagini, video, audio, documenti e altre modalità, o persino più modalità (multimodali). La creazione di un prompt per ottenere la risposta desiderata dal modello è una pratica chiamata progettazione dei prompt. Sebbene la progettazione dei prompt sia un processo di prove ed errori, esistono principi e strategie di progettazione dei prompt che puoi utilizzare per sollecitare il modello a comportarsi nel modo desiderato. Vertex AI Studio offre uno strumento di gestione dei prompt per aiutarti a gestire i prompt. |
Modelli di base
I prompt vengono inviati a un modello di AI generativa per la generazione delle risposte. Vertex AI offre una varietà di modelli di base di IA generativa accessibili tramite un'API gestita, tra cui:
I modelli si differenziano per dimensioni, modalità e costo. Puoi esplorare i modelli Google, nonché i modelli aperti e i modelli di partner di Google, in Model Garden. |
Personalizzazione dei modelli
Puoi personalizzare il comportamento predefinito dei modelli di base di Google in modo che generino in modo coerente i risultati desiderati senza utilizzare prompt complessi. Questo processo di personalizzazione è chiamato ottimizzazione del modello. L'ottimizzazione dei modelli consente di ridurre il costo e la latenza delle richieste, semplificando le richieste. Vertex AI offre anche strumenti di valutazione dei modelli per aiutarti a valutare le prestazioni del tuo modello ottimizzato. Quando il modello ottimizzato è pronto per la produzione, puoi eseguirne il deployment in un endpoint e monitorare le prestazioni come nei flussi di lavoro MLOps standard. |
Richiedi aumento
Vertex AI offre diversi metodi di aumento delle richieste che consentono al modello di accedere ad API esterne e informazioni in tempo reale.
|
Verifica delle citazioni
Dopo aver generato la risposta, Vertex AI controlla se nella risposta devono essere incluse le citazioni. Se una quantità significativa del testo nella risposta proviene da una fonte specifica, questa fonte viene aggiunta ai metadati della citazione nella risposta. |
AI responsabile e sicurezza
L'ultimo livello di controlli che il prompt e la risposta devono superare prima di essere restituiti sono i filtri di sicurezza. Vertex AI controlla sia il prompt che la risposta per determinare in quale misura il prompt o la risposta appartengono a una categoria di sicurezza. Se la soglia viene superata per una o più categorie, la risposta viene bloccata e Vertex AI restituisce una risposta di riserva. |
Risposta
Se il prompt e la risposta superano i controlli del filtro di sicurezza, viene restituita la risposta. In genere, la risposta viene restituita tutta insieme. Tuttavia, con Vertex AI puoi anche ricevere risposte progressivamente man mano che vengono generate abilitando i flussi di dati. |
API e modelli di IA generativa
I modelli di IA generativa disponibili in Vertex AI, detti anche modelli di base, sono classificati in base al tipo di contenuto. Questi contenuti includono testo, chat, immagine, codice, video, dati multimodali e incorporamenti. Ogni modello è esposto tramite un endpoint del publisher specifico per il tuo progetto Google Cloud, quindi non è necessario eseguire il deployment del modello di base, a meno che tu non debba ottimizzarlo per un caso d'uso specifico.
Offerte dell'API Gemini
L'API Vertex AI Gemini contiene gli endpoint del publisher per i modelli Gemini sviluppati da Google DeepMind. Puoi provare l'API Vertex AI per Gemini in questa guida rapida.
- Gemini 1.5 Flash è un modello multimodale che puoi utilizzare per creare applicazioni di generazione di testo e chat. Nelle richieste dei prompt puoi includere testo, immagini, audio, video e file PDF. Inoltre, la finestra di contesto di Gemini 1.5 Pro è la stessa per elaborare grandi quantità di dati multimodali. Gemini 1.5 Flash è più piccolo e più veloce di Gemini 1.5 Pro, il che lo rende una buona opzione per creare assistenti per la chat e applicazioni per la generazione di contenuti on demand.
- Gemini 1.5 Pro supporta i prompt multimodali. Nelle richieste dei prompt puoi includere testo, immagini, audio, video e file PDF e ricevere risposte di testo o codice. Gemini 1.5 Pro è in grado di elaborare raccolte di immagini più grandi, documenti di testo più grandi e video più lunghi rispetto a Gemini 1.0 Pro Vision.
- Gemini 1.0 Pro è progettato per gestire attività in linguaggio naturale, chat di codice e testo in più passaggi e generazione di codice.
- Gemini 1.0 Pro Vision supporta i prompt multimodali. Nelle richieste di prompt puoi includere testo, immagini, video e PDF e ricevere risposte testuali o in codice.
La seguente tabella mostra alcune differenze tra i modelli Gemini per aiutarti a scegliere quello più adatto a te:
Modello Gemini | Modalità | Finestra di contesto |
---|---|---|
Gemini 1.5 Flash |
|
|
Gemini 1.5 Pro |
|
|
Gemini 1.0 Pro / Gemini 1.0 Pro Vision |
|
|
Altre offerte di IA generativa
L'incorporamento del testo genera incorporamenti vettoriali per il testo di input. Gli incorporamenti possono essere usati per attività come ricerca semantica, suggerimenti, classificazione e rilevamento di outlier.
L'incorporamento multimodale genera incorporamenti vettoriali basati su input di immagini e testo. Questi incorporamenti possono essere utilizzati in un secondo momento per altre attività successive come la classificazione delle immagini o i suggerimenti sui contenuti.
Imagen, il nostro modello di base da testo a immagine, ti consente di generare e personalizzare immagini di livello professionale su larga scala.
I modelli partner sono un elenco selezionato di modelli di AI generativa sviluppati dalle aziende partner di Google. Questi modelli di AI generativa vengono offerti come API gestite. Ad esempio, Anthropic offre i suoi modelli Claude come servizio su Vertex AI.
I modelli aperti, come Llama, sono disponibili per il deployment su Vertex AI o altre piattaforme.
MedLM è una famiglia di modelli di base perfezionati per il settore sanitario.
Certificazioni e controlli di sicurezza
Vertex AI supporta CMEK, Controlli di servizio VPC, Residency dei dati e Access Transparency. Esistono alcune limitazioni per le funzionalità dell'IA generativa. Per saperne di più, consulta Controlli di sicurezza dell'IA generativa.
Esperienze nella console Vertex AI Studio
Quando utilizzi Vertex AI Studio con la prova gratuita o senza accedere a Google Cloud, alcune funzionalità non sono disponibili. Per provare Vertex AI Studio, accetta la finestra dei Termini di servizio di Vertex AI Studio nella console Google Cloud.
Utilizza senza un account Google Cloud | Utilizzo con un account di prova gratuito di Google Cloud | Utilizza con un account Google Cloud esistente | |
---|---|---|---|
Accesso obbligatorio | No | Sì | Sì |
Query al minuto (QPM) | 2 q/m | N/A | N/A |
Crediti offerti | 0 $ | Fino a 300 $per 90 giorni | 0 $ |
Galleria dei prompt | No | Sì | Sì |
Progettista del prompt | Sì | Yes | Sì |
Salva i prompt | No | Sì | Sì |
Cronologia dei prompt | No | Sì | Sì |
Parametri avanzati | No | No | Sì |
Ottimizzazione | No | No | Sì |
Utilizzo delle API | No | Sì | Sì |
Fatturazione obbligatoria | No | No | Sì |
Come iniziare | Vai a Vertex AI Studio | Registrati per una prova gratuita | Prova Vertex AI Studio nella tua console |
Altri modi per iniziare
- Prova un tutorial di avvio rapido utilizzando Vertex AI Studio o l'API Vertex AI.
- Esplora i modelli preaddestrati in Model Garden.
- Esplora il riferimento dell'SDK dell'API Vertex AI Gemini per Python, Node.js, Java, Go o C#.
- Scopri come ottimizzare un modello di base.
- Scopri le best practice per l'IA responsabile e i filtri di sicurezza di Vertex AI.
- Scopri di più su quote e limiti.
- Scopri di più sui pricing.
- Scopri come chiamare Gemini utilizzando la libreria OpenAI.