Créer des applications basées sur un LLM avec LangChain

Cette page explique comment créer des applications basées sur un LLM en utilisant LangChain. Les présentations de cette page sont liées aux guides de procédure dans GitHub.

Qu'est-ce que LangChain ?

LangChain est un framework d'orchestration LLM qui aide les développeurs à créer des applications d'IA générative ou des workflows de génération augmentée de récupération (RAG). Il fournit la structure, les outils et les composants nécessaires pour simplifier les workflows LLM complexes.

Pour plus d'informations sur LangChain, consultez la page Google LangChain. Pour en savoir plus sur le framework LangChain, consultez la documentation du produit de LangChain.

Composants LangChain pour Memorystore pour Redis

Memorystore pour Redis propose les interfaces LangChain suivantes:

Découvrez comment utiliser LangChain avec le guide de démarrage rapide de LangChain pour Memorystore pour Redis.

Stockage vectoriel pour Memorystore pour Redis

Le magasin de vecteurs récupère et stocke les documents et les métadonnées d'une base de données vectorielle. Le magasin de vecteurs permet à une application d'effectuer des recherches sémantiques qui interprétent la signification d'une requête utilisateur. Ce type de recherche est appelé recherche vectorielle. Elle permet de trouver des sujets correspondant à la requête du point de vue conceptuel. Au moment de la requête, le magasin de vecteurs récupère les vecteurs d'embedding qui ressemblent le plus à l'embedding de la requête de recherche. En LangChain, un magasin de vecteurs se charge de stocker les données intégrées et d'effectuer la recherche vectorielle pour vous.

Pour utiliser un magasin de vecteurs dans Memorystore pour Redis, utilisez la classe RedisVectorStore.

Pour en savoir plus, consultez la documentation produit Magasins de vecteurs LangChain.

Guide de procédure pour le magasin de vecteurs

Le guide Memorystore pour Redis pour le magasin de données vectorielles vous explique comment effectuer les opérations suivantes:

  • Installer le package d'intégration et LangChain
  • Initialiser un index vectoriel
  • Préparer des documents pour le dépôt de vecteurs
  • Ajouter des documents au store de vecteurs
  • Effectuer une recherche de similarité (KNN)
  • Effectuer une recherche de similarité basée sur une plage
  • Effectuer une recherche de pertinence marginale maximale (MMR)
  • Utiliser le magasin de vecteurs comme récupérateur
  • Supprimer des documents du magasin de vecteurs
  • Supprimer un index vectoriel

Chargeur de documents pour Memorystore pour Redis

Le chargeur de documents enregistre, charge et supprime un objet Document LangChain. Par exemple, vous pouvez charger des données à traiter dans des embeddings et les stocker dans un magasin de vecteurs ou les utiliser comme outil pour fournir un contexte spécifique aux chaînes.

Pour charger des documents à partir du chargeur de documents dans Memorystore pour Redis, utilisez la classe MemorystoreDocumentLoader. Utilisez la classe MemorystoreDocumentSaver pour enregistrer et supprimer des documents.

Pour en savoir plus, consultez la page Chargeurs de documents LangChain.

Guide de procédure du chargeur de documents

Le guide Memorystore pour Redis pour le chargeur de documents vous explique comment:

  • Installer le package d'intégration et LangChain
  • charger des documents depuis une table ;
  • ajouter un filtre au chargeur ;
  • personnaliser la connexion et l'authentification ;
  • personnaliser la construction d'un document en spécifiant les métadonnées et les contenus client ;
  • utiliser et personnaliser un MemorystoreDocumentSaver pour stocker et supprimer des documents.

Historique des messages de chat pour Memorystore pour Redis

Les applications de questions-réponses nécessitent un historique de ce qui s'est dit dans la conversation afin de fournir à l'application un contexte qui lui permet de répondre à d'autres questions de l'utilisateur. La classe ChatMessageHistory de LangChain permet à l'application d'enregistrer des messages dans une base de données et de les récupérer si nécessaire pour formuler d'autres réponses. Un message peut être une question, une réponse, une instruction, un message d'accueil ou tout autre texte émis par l'utilisateur ou l'application au cours d'une conversation. ChatMessageHistory stocke chaque message et enchaîne les messages pour chaque conversation.

Memorystore pour Redis étend cette classe avec MemorystoreChatMessageHistory.

Guide de procédure pour l'historique des messages de chat

Le guide Memorystore pour Redis sur l'historique des messages de chat vous explique comment:

  • Installer LangChain et s'authentifier auprès de Google Cloud
  • initialiser la classe MemorystoreChatMessageHistory pour ajouter et supprimer des messages ;