Google Cloud offre una gamma di prodotti e strumenti per l'intero ciclo di vita della creazione di applicazioni di AI generativa.

Scopri come creare applicazioni di AI generativa

Generative AI su Vertex AI

Accedi ai grandi modelli di IA generativa di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per l'utilizzo nelle tue applicazioni basate sull'IA.

Guida rapida di Gemini

Scopri come inviare richieste all'API Gemini tramite Vertex AI, la piattaforma di IA e ML di Google Cloud.

Scegli l'infrastruttura per la tua applicazione di AI generativa

Scegli i prodotti e gli strumenti migliori per il tuo caso d'uso e accedi alla documentazione necessaria per iniziare.

Quando utilizzare l'AI generativa

Scopri se l'AI generativa, l'AI tradizionale o una combinazione di entrambe potrebbe essere adatta al tuo caso d'uso aziendale.

Sviluppare un'applicazione di AI generativa

Scopri come affrontare le sfide in ogni fase dello sviluppo di un'applicazione di AI generativa.

Esemplificazioni di codice e applicazioni di esempio

Visualizza esempi di codice per casi d'uso comuni ed esegui il deployment di esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alte prestazioni e convenienti.

Esplorazione e hosting dei modelli

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI, tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti in Vertex AI Model Garden o eseguirlo in modalità self-hosted su GKE o Compute Engine.

Modelli Google su Vertex AI (Gemini, Imagen)

Scopri, testa, personalizza ed esegui il deployment di modelli e asset di Google da una libreria di modelli di ML.

Altri modelli in Model Garden di Vertex AI

Scopri, testa, personalizza ed esegui il deployment di asset e modelli OSS selezionati da una libreria di modelli di ML.

Modelli di generazione di testo tramite HuggingFace

Scopri come eseguire il deployment dei modelli di generazione di testo di HuggingFace in Vertex AI o Google Kubernetes Engine (GKE).

Orchestrazione di AI/ML su GKE

GKE orchestra in modo efficiente i carichi di lavoro di AI/ML, supportando GPU e TPU per l'addestramento e l'erogazione di AI generativa scalabile.

GPU su Compute Engine

Collega le GPU alle istanze VM per accelerare i carichi di lavoro di AI generativa su Compute Engine.

Design e ingegneria dei prompt

La progettazione dei prompt è il processo di creazione di coppie di prompt e risposte per fornire ai modelli linguistici contesto e istruzioni aggiuntivi. Dopo aver creato i prompt, li fornisci al modello come set di dati di prompt per il preaddestramento. Quando un modello genera previsioni, risponde con le istruzioni incorporate.

Vertex AI Studio

Progetta, testa e personalizza i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google.

Panoramica delle strategie di prompt

Scopri il flusso di lavoro di progettazione dei prompt e le strategie comuni che puoi utilizzare per influire sulle risposte del modello.
Visualizza prompt e risposte di esempio per casi d'uso specifici.

Eseguire il grounding e utilizzare il RAG

La fondatezza collega i modelli di AI alle origini dati per migliorare l'accuratezza delle risposte e ridurre le allucinazioni. La RAG, una tecnica di grounding comune, cerca informazioni pertinenti e le aggiunge al prompt del modello, garantendo che l'output si basi su fatti e informazioni aggiornate.

Approfondimento di Vertex AI

Puoi basare i modelli Vertex AI sulla Ricerca Google o sui tuoi dati archiviati in Vertex AI Search.
Utilizza il grounding con la Ricerca Google per collegare il modello alle conoscenze aggiornate disponibili su internet.

Embedding vettoriali in AlloyDB

Utilizza AlloyDB per generare e archiviare gli incorporamenti vettoriali, quindi indicizzali e esegui query utilizzando l'estensione pgvector.

Cloud SQL e pgvector

Archivia le rappresentazioni vettoriali in Postgres SQL, poi indicizzale ed esegui query utilizzando l'estensione pgvector.

Integrare i dati BigQuery nell'applicazione LangChain

Utilizza LangChain per estrarre i dati da BigQuery e arricchire e basare le risposte del tuo modello.

Embedding vettoriali in Firestore

Crea embedding vettoriali dai dati di Firestore, quindi indicizzali ed esegui query sugli embedding.

Embedding di vettori in Memorystore (Redis)

Utilizza LangChain per estrarre i dati da Memorystore e arricchire e basare le risposte del tuo modello.

Agenti e chiamate di funzioni

Gli agenti semplificano la progettazione e l'integrazione di un'interfaccia utente di conversazione nella tua app mobile, mentre le chiamate di funzione estendono le funzionalità di un modello.

Vertex AI Agent Builder

Sfrutta i modelli di base, le competenze di ricerca e le tecnologie di AI conversazionale di Google per applicazioni di AI generativa di livello enterprise.

Chiamata di funzioni Vertex AI

Aggiungi la chiamata di funzione al modello per attivare azioni come la prenotazione in base alle informazioni del calendario estratte.

Personalizzazione e addestramento dei modelli

Attività specializzate, come l'addestramento di un modello linguistico su terminologia specifica, potrebbero richiedere più addestramento di quanto puoi fare con il design dei prompt o l'uso di dati basati su fatti. In questo caso, puoi utilizzare l'ottimizzazione del modello per migliorare le prestazioni o addestrare il tuo modello.

Valutare i modelli in Vertex AI

Valuta le prestazioni dei modelli di base e dei modelli di AI generativa ottimizzati su Vertex AI.

Ottimizza i modelli Vertex AI

I modelli di base per uso generale possono trarre vantaggio dall'ottimizzazione per migliorare le prestazioni su attività specifiche.

Cloud TPU

Le TPU sono circuiti integrati per applicazioni specifiche (ASIC) sviluppati da Google e utilizzati per accelerare i carichi di lavoro di machine learning, come l'addestramento di un LLM.

Inizia a creare

LangChain è un framework open source per app di AI generativa che ti consente di creare contesto nei prompt e di intervenire in base alla risposta del modello.
Visualizza esempi di codice per casi d'uso comuni ed esegui il deployment di esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alte prestazioni e convenienti.