LangChain su Vertex AI

LangChain su Vertex AI (anteprima) consente di utilizzare la libreria open source LangChain per creare applicazioni di IA generativa personalizzate e utilizzare Vertex AI per modelli, strumenti e deployment. Con LangChain su Vertex AI (anteprima), puoi svolgere le seguenti operazioni:

  • Seleziona il modello linguistico di grandi dimensioni (LLM) con cui vuoi lavorare.
  • Definisci gli strumenti per accedere alle API esterne.
  • Struttura l'interfaccia tra l'utente e i componenti di sistema in un framework di orchestrazione.
  • Esegui il deployment del framework in un runtime gestito.

Vantaggi

  • Personalizzabile: utilizzando le interfacce standardizzate di LangChain, LangChain su Vertex AI può essere adottato per creare diversi tipi di applicazioni. Puoi personalizzare la logica della tua applicazione e incorporare qualsiasi framework, in modo da garantire un elevato grado di flessibilità.
  • Semplifica il deployment: LangChain su Vertex AI utilizza le stesse API di LangChain per interagire con gli LLM e creare applicazioni. LangChain su Vertex AI semplifica e velocizza il deployment con gli LLM di Vertex AI poiché il runtime del motore di ragionamento supporta il deployment con un solo clic per generare un'API conforme in base alla tua libreria.
  • Integrazione con gli ecosistemi Vertex AI: Reasoning Engine per LangChain su Vertex AI utilizza l'infrastruttura e i container predefiniti di Vertex AI per aiutarti a eseguire il deployment della tua applicazione LLM. Puoi utilizzare l'API Vertex AI per eseguire l'integrazione con i modelli Gemini, le chiamate di funzione e le estensioni.
  • Sicuro, privato e scalabile: puoi utilizzare una singola chiamata SDK anziché gestire autonomamente il processo di sviluppo. Il runtime gestito di Reasoning Engine ti libera da attività come lo sviluppo di server di applicazioni, la creazione di container e la configurazione di autenticazione, IAM e scalabilità. Vertex AI gestisce la scalabilità automatica, l'espansione regionale e le vulnerabilità dei container.

Casi d'uso

Per scoprire di più su LangChain su Vertex AI con esempi end-to-end, consulta le seguenti risorse:

Caso d'uso Descrizione Link
Crea applicazioni di AI generativa collegandoti ad API pubbliche Convertire valute.

Crea una funzione che si connetta a un'app di cambio valuta, consentendo al modello di fornire risposte accurate a query come "Qual è il tasso di cambio tra euro e dollari oggi?"
Notebook SDK Vertex AI per Python - Introduzione alla creazione e al deployment di un agente con il Reasoning Engine
Progettazione di un progetto di energia solare comunitaria.

Identifica le potenziali località, cerca uffici governativi e fornitori pertinenti e rivedi le immagini satellitari e il potenziale solare di regioni ed edifici per trovare la posizione ottimale per installare i pannelli solari.
Notebook SDK Vertex AI per Python: creazione e dispiegamento di un agente API Google Maps con il motore di ragionamento Vertex AI
Crea applicazioni di IA generativa connettendoti ai database Integrazione con AlloyDB e CloudSQL PostgreSQL. Post del blog - Annuncio di LangChain su Vertex AI per AlloyDB e Cloud SQL per PostgreSQL

Notebook SDK Vertex AI per Python - Eseguire il deployment di un'applicazione RAG con Cloud SQL per PostgreSQL in LangChain su Vertex AI

Notebook SDK Vertex AI per Python - Eseguire il deployment di un'applicazione RAG con AlloyDB in LangChain su Vertex AI
Esegui query e comprendi i datastore strutturati utilizzando il linguaggio naturale. Notebook SDK Vertex AI per Python: creazione di un agente di ricerca conversazionale con il motore di ragionamento Vertex AI e RAG su Vertex AI Search
Esegui query e comprendi i database di grafo utilizzando il linguaggio naturale Post del blog: agenti di IA e GraphRAG di IA generativa che utilizzano il motore di ragionamento Vertex AI con LangChain e Neo4j
Esegui query e comprendi gli store di vettori utilizzando il linguaggio naturale Post del blog: semplifica i raggruppamenti di annunci basati sull'IA generativa con MongoDB Atlas e il motore di ragionamento di Vertex AI
Crea applicazioni di AI generativa con framework OSS Crea ed esegui il deployment di agenti utilizzando il framework open source OneTwo. Post del blog: OneTwo e Vertex AI Reasoning Engine: esplorazione dello sviluppo di agenti di IA avanzata su Google Cloud
Crea ed esegui il deployment di agenti utilizzando il framework open source LangGraph. Notebook SDK Vertex AI per Python: creazione e dispiegamento di un'applicazione LangGraph con il motore di ragionamento Vertex AI
Debug e ottimizzazione delle applicazioni di AI generativa Crea e monitora gli agenti utilizzando OpenTelemetry e Cloud Trace. Notebook SDK Vertex AI per Python - Agenti di debug e ottimizzazione: una guida al monitoraggio nel Reasoning Engine di Vertex AI

Componenti di sistema

La creazione e il deployment di un'applicazione di AI generativa personalizzata utilizzando LangChain open source e Vertex AI sono costituiti da quattro componenti:

ComponenteDescrizione
LLM

Quando invii una query alla tua applicazione personalizzata, l'LLM la elabora e fornisce una risposta.

Puoi scegliere di definire un insieme di strumenti che comunicano con API esterne e fornirli al modello. Durante l'elaborazione di una query, il modello delega determinate attività agli strumenti. Ciò implica una o più chiamate ai modelli di base o ottimizzati.

Per scoprire di più, consulta la sezione Versioni e ciclo di vita dei modelli.

Strumento

Puoi scegliere di definire un insieme di strumenti che comunicano con API esterne (ad esempio un database) e fornirli al modello. Durante l'elaborazione di una query, il modello può delegare determinate attività agli strumenti.

Il deployment tramite il runtime gestito di Vertex AI è ottimizzato per l'utilizzo di strumenti basati su Chiamate di funzioni Gemini, ma supporta le Chiamate di funzioni/strumenti LangChain. Per scoprire di più sulle chiamate di funzione di Gemini, consulta Chiamata di funzione.

Framework di orchestrazione

LangChain su Vertex AI ti consente di utilizzare il framework di orchestrazione LangChain in Vertex AI. Utilizza LangChain per decidere quanto deve essere deterministica la tua applicazione.

Se utilizzi già LangChain, puoi utilizzare il codice LangChain esistente per eseguire il deployment dell'applicazione su Vertex AI. In caso contrario, puoi creare il tuo codice dell'applicazione e strutturarlo in un framework di orchestrazione che sfrutta i modelli LangChain di Vertex AI.

Per scoprire di più, consulta Sviluppare un'applicazione.

Runtime gestito LangChain su Vertex AI ti consente di eseguire il deployment della tua applicazione in un runtime gestito di Reasoning Engine. Questo runtime è un servizio Vertex AI che offre tutti i vantaggi dell'integrazione di Vertex AI: sicurezza, privacy, osservabilità e scalabilità. Puoi eseguire il deployment in produzione e scalare la tua applicazione con una chiamata API, trasformando rapidamente i prototipi testati localmente in implementazioni pronte per le aziende. Per scoprire di più, consulta Eseguire il deployment di un'applicazione.

Esistono molti modi diversi per realizzare prototipi e creare applicazioni di IA generativa personalizzate che utilizzano funzionalità di agenti sovrapponendo strumenti e funzioni personalizzate su modelli come Gemini. Quando è il momento di spostare la tua applicazione in produzione, devi considerare come eseguire il deployment e gestire l'agente e i relativi componenti sottostanti.

Con i componenti di LangChain su Vertex AI, l'obiettivo è aiutarti a concentrarti e personalizzare gli aspetti delle funzionalità dell'agente che ti interessano maggiormente, come funzioni personalizzate, comportamento dell'agente e parametri del modello, mentre Google si occupa del deployment, del packaging e delle versioni. Se lavori a un livello inferiore della pila, potresti dover gestire più di quanto vorresti. Se lavori a un livello superiore della pila, potresti non avere il controllo dello sviluppatore che vorresti.

Flusso di sistema in fase di esecuzione

Quando l'utente effettua una query, l'agente definito la formatta in un prompt per il LLM. L'LLM elabora il prompt e determina se vuole utilizzare uno degli strumenti.

Se l'LLM sceglie di utilizzare uno strumento, genera un FunctionCall con il nome e i parametri con cui deve essere chiamato lo strumento. L'agente richiama lo strumento con FunctionCall e restituisce i risultati dello strumento all'LLM. Se l'LLM sceglie di non utilizzare strumenti, genera contenuti che vengono ritrasmessi dall'agente all'utente.

Il seguente diagramma illustra il flusso di sistema in fase di esecuzione:

Flusso di sistema in fase di esecuzione 

Crea e distribuisci un'applicazione di AI generativa

Il flusso di lavoro per creare applicazioni di AI generativa è il seguente:

Passaggi Descrizione
1. Configura l'ambiente Configura il tuo progetto Google e installa la versione più recente dell'SDK Vertex AI per Python.
2. Sviluppare un'applicazione Sviluppare un'applicazione LangChain che può essere implementata in Reasoning Engine.
3. Esegui il deployment dell'applicazione Esegui il deployment dell'applicazione su Reasoning Engine.
4. Utilizzare l'applicazione Chiedi al motore di ragionamento delle query una risposta.
5. Gestire l'applicazione di cui è stato eseguito il deployment Gestisci ed elimina le applicazioni di cui hai eseguito il deployment in Reasoning Engine.
6. (Facoltativo) Personalizzare un modello di applicazione Personalizzare un modello per le nuove applicazioni.

I passaggi sono illustrati nel seguente diagramma:

Crea e distribuisci un'applicazione di AI generativa 

Passaggi successivi