Google Cloud offre una gamma di prodotti e strumenti per l'intero ciclo di vita della creazione di applicazioni di IA generativa.

Scopri come creare applicazioni di AI generativa

IA generativa su Vertex AI

Accedi ai modelli di IA generativa di grandi dimensioni di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per utilizzarli nelle tue applicazioni basate sull'IA.

Guida rapida di Gemini

Scopri come inviare richieste all'API Gemini tramite Vertex AI, la piattaforma di IA/ML di Google Cloud.

Scegli l'infrastruttura per la tua applicazione di AI generativa

Scegli i prodotti e gli strumenti migliori per il tuo caso d'uso e accedi alla documentazione necessaria per iniziare.

Quando utilizzare l'IA generativa

Identifica se AI generativa, AI tradizionale o una combinazione di entrambe potrebbe essere adatto al tuo caso d'uso aziendale.

Sviluppare un'applicazione di IA generativa

Scopri come affrontare le sfide in ogni fase dello sviluppo di un'applicazione di AI generativa.

Esempi di codice e applicazioni di esempio

Visualizza esempi di codice per casi d'uso comuni ed esegui il deployment di esempi di applicazioni di IA generativa sicure, efficienti, resilienti, ad alte prestazioni e convenienti.

Esplorazione e hosting del modello

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI, tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti su Vertex AI Model Garden o ospitarlo autonomamente su GKE o Compute Engine.

Modelli Google su Vertex AI (Gemini, Imagen)

Scopri, testa, personalizza ed esegui il deployment di modelli e asset di Google da una libreria di modelli di ML.

Altri modelli in Model Garden di Vertex AI

Scoprire, testare, personalizzare ed eseguire il deployment di asset e modelli OSS selezionati da una libreria di modelli di ML.

Modelli di generazione di testo tramite HuggingFace

Scopri come eseguire il deployment di modelli di generazione di testo di HuggingFace in Vertex AI o Google Kubernetes Engine (GKE).

Orchestrazione di AI/ML su GKE

GKE orchestra in modo efficiente i carichi di lavoro di AI/ML, supportando GPU e TPU per l'addestramento e il servizio di AI generativa scalabili.

GPU su Compute Engine

Collegare le GPU alle istanze VM per accelerare i carichi di lavoro di AI generativa su Compute Engine.

Progettazione e ingegneria dei prompt

La progettazione dei prompt è il processo di creazione di coppie di prompt e risposte per fornire ai modelli linguistici contesto e istruzioni aggiuntivi. Dopo aver creato i prompt, forniscili al modello come set di dati di prompt per il preaddestramento. Quando un modello pubblica le previsioni, risponde con le tue istruzioni integrate.

Vertex AI Studio

Progetta, testa e personalizza i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google.

Panoramica delle strategie di prompt

Scopri il flusso di lavoro di progettazione dei prompt e le strategie comuni che puoi utilizzare per influire sulle risposte del modello.
Visualizza prompt e risposte di esempio per casi d'uso specifici.

grounding e RAG

Il collegamento collega i modelli di AI alle origini dati per migliorare l'accuratezza delle risposte e ridurre le allucinazioni. La RAG, una tecnica di grounding comune, cerca informazioni pertinenti e le aggiunge al prompt del modello, garantendo che l'output si basi su fatti e informazioni aggiornate.

Approccio basato sui dati di Vertex AI

Puoi basare i modelli Vertex AI sulla Ricerca Google o sui tuoi dati archiviati in Vertex AI Search.
Utilizza il grounding con la Ricerca Google per collegare il modello alle conoscenze aggiornate disponibili su internet.

Incorporamenti vettoriali in AlloyDB

Usa AlloyDB per generare e archiviare gli incorporamenti vettoriali, quindi indicizzali ed esegui query sugli incorporamenti usando l'estensione pgvector.

Cloud SQL e pgvector

Archivia gli incorporamenti vettoriali in SQL Postgres, quindi indicizza ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.

Integrare i dati BigQuery nell'applicazione LangChain

Usa LangChain per estrarre dati da BigQuery e arricchire e basare le risposte del tuo modello.

Incorporamenti vettoriali in Firestore

Crea incorporamenti vettoriali dai tuoi dati Firestore, quindi indicizza ed esegui query sugli incorporamenti.

Incorporamenti vettoriali in Memorystore (Redis)

Utilizza LangChain per estrarre i dati da Memorystore e arricchire e basare le risposte del tuo modello.

Agenti e chiamate di funzione

Gli agenti semplificano la progettazione e l'integrazione di un'interfaccia utente di conversazione nella tua app mobile, mentre le chiamate di funzione estendono le funzionalità di un modello.

Vertex AI Agent Builder

Sfrutta i modelli di base, le competenze di ricerca e le tecnologie di IA conversazionale di Google per applicazioni di IA generativa di livello enterprise.

Chiamate di funzione di Vertex AI

Aggiungi la chiamata di funzione al modello per attivare azioni come la prenotazione in base alle informazioni del calendario estratte.

Personalizzazione e addestramento del modello

Attività specializzate, come l'addestramento di un modello linguistico su una terminologia specifica, potrebbero richiedere una formazione maggiore rispetto alla progettazione dei prompt o alla sola grounding. In questo caso, puoi utilizzare l'ottimizzazione del modello per migliorare le prestazioni o addestrare il tuo modello.

valuta i modelli in Vertex AI

Valuta le prestazioni dei modelli di base e dei tuoi modelli di IA generativa ottimizzati su Vertex AI.

Ottimizza i modelli Vertex AI

I modelli di base per uso generale possono trarre vantaggio dall'ottimizzazione per migliorare le prestazioni in attività specifiche.

Cloud TPU

Le TPU sono ASIC sviluppati da Google e utilizzati per accelerare i carichi di lavoro di machine learning, ad esempio l'addestramento di un LLM.

Inizia a creare

LangChain è un framework open source per le app di AI generativa che ti consente di integrare un contesto nei tuoi prompt e agire in base alla risposta del modello.
Visualizza esempi di codice per casi d'uso comuni ed esegui il deployment di esempi di applicazioni di IA generativa sicure, efficienti, resilienti, ad alte prestazioni e convenienti.