Panoramica dell'IA generativa su Vertex AI

L'IA generativa su Vertex AI (nota anche come genAI o genAI) ti dà accesso ai modelli Gemini e ad altri modelli di IA generativa di grandi dimensioni in modo da poterli valutare, ottimizzare ed eseguire il deployment per l'utilizzo nelle tue applicazioni basate sull'IA. Questa pagina offre una panoramica del flusso di lavoro dell'IA generativa su Vertex AI, delle API e dei modelli disponibili, inclusa l'API Vertex AI per Gemini, e ti indirizza alle risorse per iniziare.

Flusso di lavoro dell'IA generativa in Vertex AI

Il seguente diagramma mostra una panoramica generale del flusso di lavoro dell'AI generativa.

Diagramma del flusso di lavoro dell'IA generativa

Prompt

Prompt

Il flusso di lavoro dell'AI generativa in genere inizia dai prompt. Un prompt è una richiesta inviata a un modello di AI generativa per ottenere una risposta. A seconda del modello, un prompt può contenere testo, immagini, video, audio, documenti e altre modalità o anche più modalità (multimodali).

Creare un prompt per ottenere la risposta desiderata dal modello è una pratica chiamata progettazione dei prompt. Sebbene la progettazione dei prompt sia un processo basato su tentativi ed errori, esistono dei principi e delle strategie di progettazione dei prompt che puoi utilizzare per spingere il modello a comportarsi nel modo desiderato. Vertex AI Studio offre uno strumento di gestione dei prompt per aiutarti a gestirli.

Modelli di base

Modelli di base

I prompt vengono inviati a un modello di AI generativa per la generazione di risposte. Vertex AI offre una varietà di modelli di base di IA generativa accessibili tramite un'API gestita, tra cui:

  • API Gemini: ragionamento avanzato, chat multiturno, generazione di codice e prompt multimodali.
  • API Imagen:generazione di immagini, modifica delle immagini e didascalie visive.
  • MedLM: risposta a domande mediche e riassunto. (GA privata)

I modelli differiscono per dimensioni, modalità e costo. In Model Garden puoi esplorare i modelli Google, nonché quelli aperti e quelli dei partner di Google.

Personalizzazione dei modelli

Personalizzazione dei modelli

Puoi personalizzare il comportamento predefinito dei modelli di base di Google in modo che generino in modo coerente i risultati desiderati senza utilizzare prompt complessi. Questo processo di personalizzazione è chiamato ottimizzazione del modello. L'ottimizzazione del modello consente di ridurre i costi e la latenza delle richieste semplificando i prompt.

Vertex AI offre anche strumenti di valutazione del modello per aiutarti a valutare le prestazioni del tuo modello ottimizzato. Quando il modello ottimizzato è pronto per la produzione, puoi eseguire il deployment in un endpoint e monitorare le prestazioni come nei flussi di lavoro MLOps standard.

Richiedi aumento

Aumento

Vertex AI offre diversi metodi di aumento delle richieste che consentono al modello di accedere ad API esterne e a informazioni in tempo reale.

  • Grounding: collega le risposte del modello a una fonte attendibile, come i tuoi dati o la ricerca web, contribuendo a ridurre le allucinazioni.
  • RAG: collega i modelli a fonti di conoscenza esterne, come documenti e database, per generare risposte più accurate e informative.
  • Chiamate di funzione: consente al modello di interagire con API esterne per ottenere informazioni in tempo reale ed eseguire attività reali.

Verifica delle citazioni

Verifica delle citazioni

Dopo aver generato la risposta, Vertex AI controlla se nella risposta devono essere incluse delle citazioni. Se una quantità significativa del testo nella risposta proviene da una determinata fonte, questa viene aggiunta ai metadati della citazione nella risposta.

AI responsabile e sicurezza

AI responsabile e sicurezza

L'ultimo livello di controlli a cui vengono sottoposti il prompt e la risposta prima di essere restituiti sono i filtri di sicurezza. Vertex AI controlla sia il prompt che la risposta per verificare in che misura il prompt o la risposta appartengono a una categoria di sicurezza. Se la soglia viene superata per una o più categorie, la risposta viene bloccata e Vertex AI restituisce una risposta di riserva.

Risposta

Risposta

Se il prompt e la risposta superano i controlli del filtro di sicurezza, viene restituita la risposta. In genere, la risposta viene restituita collettivamente. Tuttavia, con Vertex AI puoi anche ricevere le risposte in modo progressivo man mano che vengono generate abilitando i flussi.

API e modelli di IA generativa

I modelli di IA generativa disponibili in Vertex AI, detti anche modelli di base, sono classificati in base al tipo di contenuto per il quale sono stati progettati. Questi contenuti includono testo, chat, immagini, codice, video, dati multimodali e incorporamenti. Ogni modello viene esposto tramite un endpoint del publisher specifico per il tuo progetto Google Cloud, quindi non è necessario eseguire il deployment del modello di base, a meno che tu non debba ottimizzarlo per un caso d'uso specifico.

Offerte dell'API Gemini

L'API Vertex AI Gemini contiene gli endpoint degli editori per i modelli Gemini sviluppati da Google DeepMind. Puoi provare l'API Vertex AI per Gemini in questa guida rapida.

  • Gemini 1.5 Flash è un modello multimodale che puoi utilizzare per creare applicazioni di generazione di testo e chat. Puoi includere testo, immagini, audio, video e file PDF nelle richieste di prompt e ha la stessa finestra contestuale di Gemini 1.5 Pro per elaborare grandi quantità di dati multimodali. Gemini 1.5 Flash è più piccolo e più veloce di Gemini 1.5 Pro, il che lo rende una buona opzione per creare assistenti per la chat e applicazioni di generazione di contenuti on demand.
  • Gemini 1.5 Pro supporta i prompt multimodali. Puoi includere testo, immagini, audio, video e file PDF nelle richieste di prompt e ottenere risposte di testo o codice. Gemini 1.5 Pro può elaborare raccolte più ampie di immagini, documenti di testo più grandi e video più lunghi rispetto a Gemini 1.0 Pro Vision.
  • Gemini 1.0 Pro è progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice.
  • Gemini 1.0 Pro Vision supporta i prompt multimodali. Puoi includere testo, immagini, video e PDF nelle tue richieste di prompt e ottenere risposte di testo o codice.

La tabella seguente mostra alcune differenze tra i modelli Gemini che possono aiutarti a scegliere quello più adatto a te:

Modello Gemini Modalità Finestra di contesto
Gemini 1.5 Flash
  • Testo, codice, immagini, audio, video e PDF.
  • Fino a 3000 immagini.
  • Audio fino a 8,4 ore.
  • Video senza audio fino a 1 ora. Video con audio fino a 50 minuti.
  • 1 milione di token in
  • 8.192 token in uscita
Gemini 1.5 Pro
  • Testo, codice, immagini, audio, video e PDF.
  • Fino a 3000 immagini.
  • Audio fino a 8,4 ore.
  • Video senza audio fino a 1 ora. Video con audio fino a 50 minuti.
  • 1 milione di token in
  • 8.192 token in uscita
Gemini 1.0 Pro / Gemini 1.0 Pro Vision
  • Testo, codice e PDF (Gemini 1.0 Pro Vision).
  • Fino a 16 immagini.
  • Durata video fino a 2 minuti.
  • 8192 token in
  • 2048 token fuori

Altre offerte di IA generativa

  • Incorporamento del testo genera incorporamenti vettoriali per il testo di input. Puoi usare gli incorporamenti per attività come ricerca semantica, suggerimento, classificazione e rilevamento di outlier.

  • L'incorporamento multimodale genera incorporamenti vettoriali basati su input di immagini e testo. Questi incorporamenti possono essere utilizzati in un secondo momento per altre attività successive come la classificazione delle immagini o i suggerimenti sui contenuti.

  • Imagen, il nostro modello di base da testo a immagine, ti consente di generare e personalizzare immagini di livello professionale su larga scala.

  • I modelli partner sono un elenco selezionato di modelli di AI generativa sviluppati da aziende partner di Google. Questi modelli di AI generativa vengono offerti come API gestite. Ad esempio, Anthropic fornisce i suoi modelli Claude come servizio su Vertex AI.

  • Sono disponibili modelli aperti, come Llama, di cui puoi eseguire il deployment su Vertex AI o altre piattaforme.

  • MedLM è una famiglia di modelli di base ottimizzati per il settore sanitario.

Certificazioni e controlli di sicurezza

Vertex AI supporta CMEK, Controlli di servizio VPC, residenza dei dati e Access Transparency. Esistono alcune limitazioni alle funzionalità di IA generativa. Per ulteriori informazioni, vedi Controlli di sicurezza dell'IA generativa.

Esperienze nella console di Vertex AI Studio

Quando utilizzi Vertex AI Studio con la prova gratuita o senza accedere a Google Cloud, alcune funzionalità non sono disponibili. Per provare Vertex AI Studio, accetta la finestra dei Termini di servizio di Vertex AI Studio nella console Google Cloud.

Utilizza senza un account Google Cloud Utilizza con un account di prova gratuito di Google Cloud Utilizza con un account Google Cloud esistente
Accesso obbligatorio No
Query al minuto (QPM) 2 Q/M N/A N/A
Crediti offerti 0 $ Fino a 300 € per 90 giorni 0 $
Galleria dei prompt No
Designer del prompt Yes
Salva i prompt No
Cronologia dei prompt No
Parametri avanzati No No
Ottimizzazione No No
Utilizzo delle API No
Fatturazione obbligatoria No No
Come iniziare Vai a Vertex AI Studio Registrati per una prova gratuita Prova Vertex AI Studio nella console

Altri modi per iniziare