Scegli i modelli e l'infrastruttura per la tua applicazione di AI generativa

Scopri quali prodotti, framework e strumenti sono la soluzione migliore per creare la tua applicazione di IA generativa. La figura seguente mostra i componenti comuni di un'applicazione di AI generativa ospitata nel cloud.
Diagramma di Venn che mostra i componenti di un sistema di AI generativa Diagramma di Venn che mostra i componenti di un sistema di IA generativa
  1. Hosting di applicazioni: risorse di calcolo per ospitare l'applicazione. L'applicazione può utilizzare gli SDK e le librerie client di Google Cloud per comunicare con diversi prodotti Cloud.

  2. Hosting del modello:hosting scalabile e sicuro per un modello generativo.

  3. Modello: modello generativo per testo, chat, immagini, codice, incorporamenti e multimodale.

  4. Soluzione di grounding: ancora l'output del modello a fonti di informazioni verificabili e aggiornate.

  5. Database: memorizza i dati dell'applicazione. Puoi riutilizzare il tuo database esistente come soluzione di ancoraggio, integrando i prompt tramite query SQL e/o archiviando i dati come embedding vettoriali utilizzando un'estensione come pgvector.

  6. Spazio di archiviazione:consente di archiviare file come immagini, video o frontend web statici. Puoi anche utilizzare Storage per i dati non elaborati relativi al grounding (ad es. PDF) che in seguito convertirai in incorporamenti e archivierai in un database vettoriale.

Le sezioni seguenti illustrano in dettaglio ciascuno di questi componenti e ti aiutano a scegliere quali prodotti Google Cloud provare.

Infrastruttura di hosting delle applicazioni

Scegli un prodotto per ospitare e gestire il carico di lavoro dell'applicazione, in modo da effettuare chiamate al modello generativo.

Vuoi un'infrastruttura serverless gestita?

chiudi
controllo
Cloud Run
chiudi

La tua applicazione può essere containerizzata?

chiudi
controllo
Kubernetes Engine
chiudi

Infrastruttura di hosting del modello

Google Cloud offre diversi modi per ospitare un modello generativo, dalla piattaforma Vertex AI di punta all'hosting personalizzabile e portatile su Google Kubernetes Engine.

Stai utilizzando Gemini e hai bisogno di funzionalità aziendali come scalabilità, sicurezza, privacy dei dati e osservabilità

controllo
chiudi
API Gemini Developer
controllo

Vuoi un'infrastruttura completamente gestita, con strumenti di AI generativa e API all'avanguardia?

chiudi
controllo
Vertex AI
chiudi

Il tuo modello richiede un kernel specializzato o un sistema operativo legacy o prevede termini di licenza speciali?

chiudi
controllo
Compute Engine
chiudi

Modello

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI , tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti in Model Garden di Vertex AI o auto-hosting su GKE , Cloud Run o Compute Engine.

Generazione del codice in corso...

chiudi
controllo
Codey (Vertex AI)
chiudi

Vuoi generare immagini?

chiudi
controllo
Immagine (Vertex AI)
chiudi

Vuoi generare incorporamenti per la ricerca, la classificazione o il clustering?

chiudi
controllo
incorporamento del testo (Vertex AI)
chiudi

Ok, vuoi generare del testo. Vuoi includere immagini o video nei prompt di testo? (multimodale)

chiudi
controllo
Gemini (Vertex AI)
chiudi

Ok, solo prompt di testo. Vuoi sfruttare il modello di punta di Google?

chiudi
controllo
Gemini (Vertex AI)
chiudi

Esegui il deployment di un modello open source per: Vertex AI (Model Garden) GKE (HuggingFace)

Grounding

Per garantire risposte del modello informate e accurate, ti consigliamo di basare la tua applicazione di AI generativa con dati in tempo reale. Questa tecnica è chiamata retrieval-augmented generation (RAG).

Puoi implementare l'ancoraggio con i tuoi dati in un database vettoriale, un formato ottimale per operazioni come la ricerca di somiglianza. Google Cloud offre più soluzioni di database vettoriali, per diversi casi d'uso.

Nota: puoi anche utilizzare database tradizionali (non vettoriali), semplicemente interrogando un database esistente come Cloud SQL o Firestore e utilizzando il risultato nel prompt del tuo modello.

Vuoi una soluzione semplice, senza accesso agli embedding sottostanti?

chiudi
controllo
Vertex AI Search e Conversazione
chiudi

Hai bisogno di ricerca di vettori a bassa latenza, di pubblicazione su larga scala o vuoi utilizzare un DB di vettori specializzato?

chiudi
controllo
Ricerca vettoriale di Vertex AI
chiudi

L'accesso ai dati avviene in modo programmatico (OLTP)? Utilizzi già un database SQL?

chiudi
controllo

Vuoi utilizzare i modelli di Google AI direttamente dal tuo database? Vuoi richiedere una bassa latenza?

controllo
chiudi
chiudi

Hai un set di dati di analisi di grandi dimensioni (OLAP)? Vuoi richiedere l'elaborazione batch e l'accesso frequente alle tabelle SQL da parte di persone o script (data science)?

controllo
BigQuery

Conoscenza di base delle API

Anziché (o in aggiunta a) utilizzare i tuoi dati per l'ancoraggio, molti servizi online offrono API che puoi utilizzare per recuperare i dati di ancoraggio al fine di migliorare il prompt del modello.
Crea, esegui il deployment e gestisci le estensioni che collegano i modelli linguistici di grandi dimensioni alle API di sistemi esterni.
Esplora una serie di caricamenti di documenti e integrazioni di API per le tue app di IA generativa, da YouTube a Google Scholar.
Se utilizzi modelli ospitati in Vertex AI, puoi basare le risposte del modello utilizzando Vertex AI Search, Ricerca Google o testo in linea/infile.

Inizia a creare

LangChain è un framework open source per le app di AI generativa che ti consente di integrare un contesto nei tuoi prompt e agire in base alla risposta del modello.

Visualizza esempi di codice per i casi d'uso più diffusi ed esegui il deployment di esempi di applicazioni di AI generativa che siano sicure, efficienti, resilienti, ad alte prestazioni ed economicamente convenienti.