Google Cloud offre una gamma di prodotti e strumenti per l'intero ciclo di vita della creazione di applicazioni di AI generativa.

Scopri come creare applicazioni di AI generativa .

IA generativa su Vertex AI

Accedi ai modelli di IA generativa di grandi dimensioni di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per utilizzarli nelle tue applicazioni basate sull'IA.

Guida rapida di Gemini .

Scopri com'è inviare richieste all'API Gemini tramite Vertex AI, la piattaforma IA-ML di Google Cloud.

Scegli l'infrastruttura per la tua applicazione di AI generativa

Scegli i prodotti e gli strumenti migliori per il tuo caso d'uso e accedi alla documentazione di cui hai bisogno per iniziare.

Quando utilizzare AI generativa .

Identifica se AI generativa, AI tradizionale o una combinazione di entrambe potrebbe essere adatto al tuo caso d'uso aziendale.

Sviluppa un'applicazione di AI generativa .

Scopri come affrontare le sfide in ogni fase dello sviluppo di un'applicazione di AI generativa.

Esempi di codice e applicazioni di esempio .

Visualizza esempi di codice per i casi d'uso più diffusi ed esegui il deployment di esempi di applicazioni di AI generativa che siano sicure, efficienti, resilienti, ad alte prestazioni ed economiche.

Esplorazione e hosting del modello .

Google Cloud fornisce un set di modelli di base all'avanguardia tramite Vertex AI, tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti su Vertex AI Model Garden oppure in hosting autonomo su GKE o Compute Engine.

Modelli Google su Vertex AI (Gemini, Imagen) .

Scopri come eseguire test, personalizzare ed eseguire il deployment di modelli e asset di Google da una libreria di modelli di ML.

Altri modelli in Model Garden di Vertex AI .

Scopri, testa, personalizza ed esegui il deployment di modelli e asset OSS selezionati da una libreria di modelli ML.

Modelli di generazione di testo tramite HuggingFace .

Scopri come eseguire il deployment dei modelli di generazione di testo HuggingFace su Vertex AI o Google Kubernetes Engine (GKE).

Orchestrazione IA/ML su GKE

GKE orchestra in modo efficiente i carichi di lavoro AI/ML, supportando GPU e TPU per l'addestramento e la distribuzione scalabili sull'AI generativa.

GPU su Compute Engine .

Collegare le GPU alle istanze VM per accelerare i carichi di lavoro di AI generativa su Compute Engine.

Progettazione e ingegneria dei prompt .

La progettazione di prompt è il processo di creazione di coppie di prompt e risposta per fornire ai modelli linguistici di contesto e istruzioni aggiuntivi. Dopo aver creato i prompt, forniscili al modello come set di dati di prompt per il preaddestramento. Quando un modello genera previsioni, risponde con le istruzioni incorporate.

Vertex AI Studio .

Progetta, testa e personalizza i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google.

Panoramica delle strategie di richiesta .

Scopri il flusso di lavoro di prompt engineering e le strategie comuni che puoi utilizzare per influenzare le risposte del modello.
Visualizza esempi di prompt e risposte per casi d'uso specifici.

grounding e RAG .

Il collegamento collega i modelli di AI alle origini dati per migliorare l'accuratezza delle risposte e ridurre le allucinazioni. RAG, una tecnica di grounding comune, cerca informazioni pertinenti e le aggiunge al prompt del modello, garantendo che l'output si basi su fatti e informazioni aggiornate.

grounding di Vertex AI .

Puoi utilizzare i modelli Vertex AI con la Ricerca Google o con i tuoi dati archiviati in Vertex AI Search.
Utilizza il grounding con la Ricerca Google per collegare il modello alle conoscenze aggiornate disponibili su internet.

Incorporamenti vettoriali in AlloyDB .

Usa AlloyDB per generare e archiviare gli incorporamenti vettoriali, quindi indicizzali ed esegui query sugli incorporamenti usando l'estensione pgvector.

Cloud SQL e pgvector .

Archivia gli incorporamenti vettoriali in SQL Postgres, quindi indicizza ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.

Integrazione dei dati BigQuery nella tua applicazione LangChain .

Usa LangChain per estrarre dati da BigQuery e arricchire e basare le risposte del tuo modello.

Incorporamenti vettoriali in Firestore .

Crea incorporamenti vettoriali dai tuoi dati Firestore, quindi indicizza ed esegui query sugli incorporamenti.

Incorporamenti vettoriali in Memorystore (Redis) .

Utilizza LangChain per estrarre dati da Memorystore e arricchire e basare le risposte del modello.

Agenti e chiamate di funzione .

Gli agenti semplificano la progettazione e l'integrazione di un'interfaccia utente conversazionale nella tua app mobile, mentre le chiamate di funzione estendono le capacità di un modello.

Vertex AI Agent Builder .

Sfrutta i modelli di base, l'esperienza nella ricerca e le tecnologie di AI conversazionale di Google per applicazioni di AI generativa di livello enterprise.

Chiamate di funzione di Vertex AI .

Aggiungi chiamate di funzione al modello per abilitare azioni come la prenotazione di una prenotazione in base alle informazioni del calendario estratte.

Personalizzazione e addestramento del modello .

Attività specializzate, come l'addestramento di un modello linguistico su una terminologia specifica, potrebbero richiedere una formazione maggiore rispetto alla progettazione dei prompt o alla sola grounding. In questo caso, puoi utilizzare l'ottimizzazione del modello per migliorare le prestazioni o addestrare il tuo modello.

Valuta i modelli in Vertex AI .

Valuta le prestazioni dei modelli di base e dei tuoi modelli di IA generativa ottimizzati su Vertex AI.

Ottimizza i modelli Vertex AI .

I modelli di base per uso generico possono trarre vantaggio dall'ottimizzazione per migliorare le prestazioni su attività specifiche.

Cloud TPU .

Le TPU sono ASIC sviluppati da Google e utilizzati per accelerare i carichi di lavoro di machine learning, ad esempio l'addestramento di un LLM.

Inizia a creare

LangChain è un framework open source per le app di AI generativa che ti consente di integrare un contesto nei tuoi prompt e agire in base alla risposta del modello.
Visualizza esempi di codice per i casi d'uso più diffusi ed esegui il deployment di esempi di applicazioni di AI generativa che siano sicure, efficienti, resilienti, ad alte prestazioni ed economicamente convenienti.