LangChain sur l'IA générative Vertex

LangChain sur l'IA générative Vertex (preview) vous permet d'exploiter la bibliothèque Open Source LangChain pour créer des applications d'IA générative personnalisées et utiliser l'IA générative Vertex pour les modèles, les outils et le déploiement. Avec LangChain sur l'IA générative Vertex (preview), vous pouvez effectuer les opérations suivantes :

  • Sélectionner le grand modèle de langage (LLM) avec lequel vous souhaitez travailler
  • Définir des outils pour accéder aux API externes
  • Structurer l'interface entre l'utilisateur et les composants du système dans un framework d'orchestration
  • Déployez le framework dans un environnement d'exécution géré

Composants du système

La création et le déploiement d'une application d'IA générative personnalisée à l'aide d'OSS LangChain et de l'IA générative Vertex se composent de quatre composants :

ComposantDescription
LLM

Lorsque vous envoyez une requête à votre application personnalisée, le LLM la traite et fournit une réponse.

Vous pouvez choisir de définir un ensemble d'outils qui communiquent avec des API externes et les fournir au modèle. Lors du traitement d'une requête, le modèle délègue certaines tâches aux outils. Cela implique un ou plusieurs appels de modèle à des modèles de base ou affinés.

Pour en savoir plus, consultez la page Versions et cycle de vie des modèles.

Outil

Vous pouvez choisir de définir un ensemble d'outils qui communique avec des API externes (par exemple, une base de données) et de les fournir au modèle. Lors du traitement d'une requête, le modèle peut déléguer certaines tâches aux outils.

Le déploiement via l'environnement d'exécution géré de l'IA générative Vertex est optimisé pour utiliser des outils basés sur l'appel de fonction Gemini, mais est compatible avec l'outil/l'appel de fonction LangChain. Pour en savoir plus sur les appels de fonctions Gemini, consultez la page Appel de fonction.

Framework d'orchestration

LangChain sur l'IA générative Vertex vous permet d'exploiter le framework d'orchestration LangChain dans l'IA générative Vertex. Utilisez LangChain pour déterminer le niveau de déterminisme de votre application.

Si vous utilisez déjà LangChain, vous pouvez utiliser votre code LangChain existant pour déployer votre application sur l'IA générative Vertex. Sinon, vous pouvez créer votre propre code d'application et le structurer dans un framework d'orchestration qui exploite les modèles LangChain de l'IA générative Vertex.

Pour en savoir plus, consultez la page Développer une application.

Environnement d'exécution géré LangChain sur l'IA générative Vertex vous permet de déployer votre application dans un environnement d'exécution géré Reasoning Engine. Cet environnement d'exécution est un service de l'IA générative Vertex qui présente tous les avantages de l'intégration à Vertex AI : sécurité, confidentialité, observabilité et évolutivité. Vous pouvez mettre votre application en production et la faire évoluer à l'aide d'un simple appel d'API, vous permettant ainsi de transformer rapidement des prototypes testés localement en déploiements adaptés aux entreprises. Pour en savoir plus, consultez Déployer une application.

Il existe de nombreuses façons de créer des prototypes et des applications d'IA générative personnalisées qui exploitent les fonctionnalités d'agents en superposant des outils, des fonctions personnalisées et des modèles tels que Gemini. Au moment de passer votre application en production, vous devez déterminer comment déployer et gérer votre agent et ses composants sous-jacents.

Avec les composants de LangChain sur l'IA générative Vertex, l'objectif est de vous aider à vous concentrer et à personnaliser les aspects de la fonctionnalité d'agent qui vous intéressent le plus, tels que les fonctions personnalisées, le comportement de l'agent et les paramètres du modèle, tandis que Google s'occupe du déploiement, du scaling, de l'empaquetage, des versions, etc. Si vous intervenez à un niveau inférieur de la pile, vous devrez peut-être gérer plus que vous ne souhaitez. Si vous intervenez à un niveau supérieur de la pile, vous n'aurez peut-être pas autant de contrôle des développeurs que ce que vous espériez.

Flux système lors de l'exécution

Lorsque l'utilisateur envoie une requête, l'agent défini la présente sous forme de requête au LLM. Le LLM traite la requête et détermine s'il souhaite utiliser l'un des outils.

Si le LLM choisit d'utiliser un outil, il génère un FunctionCall avec le nom et les paramètres avec lesquels l'outil doit être appelé. L'agent appelle l'outil avec FunctionCall et renvoie les résultats de l'outil au LLM. Si le LLM choisit de ne pas utiliser d'outil, il génère du contenu qui sera transmis par l'agent à l'utilisateur.

Le schéma suivant illustre le flux système lors de l'exécution :

Flux système lors de l'exécution 

Créer et déployer une application d'IA générative

Le workflow pour créer une application d'IA générative est le suivant :

Étapes Description
1. Configurer l'environnement Configurez votre projet Google et installez la dernière version du SDK Vertex AI pour Python.
2. Développer une application Développer une application LangChain pouvant être déployée sur Reasoning Engine.
3. Déployer l'application Déployez l'application sur Reasoning Engine.
4. Utiliser l'application Moteur de raisonnement de requête pour une réponse.
5. Gérer l'application déployée Gérez et supprimez les applications que vous avez déployées sur Reasoning Engine.
6. (Facultatif) Personnaliser un modèle d'application Personnalisez un modèle pour les nouvelles applications.

Les étapes sont illustrées dans le schéma suivant :

Créer et déployer une application d'IA générative 

Avantages

  • Personnalisable : en utilisant les interfaces standardisées de LangChain, LangChain sur Vertex AI peut être adopté pour créer différentes sortes d'applications. Vous pouvez personnaliser la logique de votre application et intégrer n'importe quel framework, offrant ainsi un haut degré de flexibilité.
  • Simplification du déploiement : LangChain sur Vertex AI utilise les mêmes API que LangChain pour interagir avec les LLM et créer des applications. LangChain sur Vertex AI simplifie et accélère le déploiement avec les LLM Vertex AI, car l'environnement d'exécution de Reasoning Engine permet le déploiement en un seul clic pour générer une API conforme basée sur votre bibliothèque.
  • Intégration aux écosystèmes Vertex AI : Reasoning Engine pour LangChain sur Vertex AI utilise l'infrastructure de Vertex AI et des conteneurs prédéfinis pour vous aider à déployer votre application LLM. Vous pouvez utiliser l'API Vertex AI pour intégrer des modèles Gemini, des appels de fonction et des extensions.
  • Sécurité, confidentialité et évolutivité : vous pouvez utiliser un seul appel de SDK au lieu de gérer vous-même le processus de développement. L'environnement d'exécution géré Reasoning Engine vous libère de certaines tâches telles que le développement du serveur d'application, la création de conteneurs et la configuration de l'authentification, d'IAM et du scaling. Vertex AI gère l'autoscaling, l'expansion régionale et les failles des conteneurs.

Cas d'utilisation

Vous pouvez utiliser LangChain sur l'IA générative Vertex pour les tâches suivantes :

Étapes suivantes