Les grands modèles de langage (LLM) sont des modèles de deep learning entraînés sur d'énormes quantités de données textuelles. Les LLM peuvent traduire un langage, synthétiser du texte et améliorer les moteurs de recherche et les systèmes de recommandation. PaLM 2 est le LLM nouvelle génération de Google, qui s'appuie sur tout l'héritage de recherche de Google dans le domaine du machine learning et de l'IA responsable.
Les modèles PaLM 2 offrent d'excellents résultats pour les tâches de raisonnement avancée, la classification, la réponse à des questions, la traduction et la génération de langage naturel. Sa grande taille lui permet d'apprendre des schémas et des relations complexes dans le langage, afin de générer du texte de haute qualité pour diverses applications. Pour cette raison, nous appelons les modèles PaLM 2 des modèles de fondation.
Pour utiliser des modèles PaLM 2 dans Vertex AI, Google a développé l'API Vertex AI PaLM. Avec l'API Vertex AI PaLM, vous pouvez tester, personnaliser et déployer des instances des modèles pour vos propres applications, et les régler spécifiquement pour vos propres cas d'utilisation.
Pour obtenir plus de ressources d'apprentissage, parcourez le dépôt GitHub Generative AI. Les data scientists, les développeurs et les Developers Advocates de Google gèrent ce contenu.
Premiers pas
Voici quelques notebooks, tutoriels et autres exemples pour vous aider à démarrer. Vertex AI propose des tutoriels sur la console Google Cloud et des tutoriels sur notebook Jupyter qui utilisent le SDK Vertex AI pour Python. Vous pouvez ouvrir un tutoriel sur Colab dans Colab ou télécharger le notebook dans l'environnement de votre choix.
Premiers pas avec l'API Vertex AI PaLM et le SDK Vertex AI pour Python
![]() |
Découvrez comment utiliser l'API PaLM avec le SDK Vertex AI pour Python. Après avoir suivi le notebook, vous devriez comprendre différentes nuances des paramètres de modèle génératif, tels que
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
Premiers pas avec Vertex AI Generative AI Studio
![]() |
Utilisez Generative AI Studio via la console Google Cloud sans avoir besoin de l'API ni du SDK Vertex AI pour Python. |
Bonnes pratiques pour la conception d'invites
![]() |
Découvrez comment concevoir des invites pour améliorer la qualité des réponses obtenues du modèle. Ce tutoriel aborde les principes de base de la conception d'invites et présente également quelques bonnes pratiques.
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
LangChain 🦜️🔗
LangChain est un framework permettant de développer des applications basées sur des LLM comme les modèles PaLM. Utilisez LangChain pour importer des données externes telles que vos fichiers, d'autres applications ou des données d'API, dans vos LLM.
Pour en savoir plus sur LangChain et son fonctionnement avec Vertex AI, consultez la documentation officielle de LangChain et Vertex AI.
LangChain et API Vertex AI PaLM
![]() |
Ce tutoriel présente les composants de LangChain et certains cas d'utilisation courants impliquant LangChain et l'API Vertex AI PaLM. Voici quelques exemples et démonstrations inclus dans ce tutoriel :
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
Synthèse de texte à partir de documents volumineux avec LangChain
![]() |
La synthèse de texte est une tâche de traitement du langage naturel (NLP) qui crée un résumé concis et informatif d'un texte plus long. Vous pouvez utiliser des LLM pour créer des résumés d'articles de presse, d'articles de recherche, de documents techniques et d'autres types de texte. Dans ce notebook, vous utilisez LangChain pour appliquer les stratégies de synthèse. Le notebook présente plusieurs exemples de synthèse de documents volumineux.
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
Répondre à des questions à partir de documents volumineux avec LangChain
![]() |
Ce notebook utilise LangChain avec l'API Vertex AI PaLM pour créer un système de questions-réponses qui extrait des informations de documents volumineux.
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
Répondre à des questions à partir de documents avec LangageChain et Vector Search
![]() |
Ce notebook explique comment mettre en œuvre un système de questions-réponses qui améliore une réponse de LLM. Vous apprendrez à améliorer les connaissances avec des sources de données externes telles que des documents et des sites Web. Ce notebook utilise Vector Search, LangChain et l'API Vertex AI PaLM pour la création de texte et de représentations vectorielles continues.
Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter. |
Étapes suivantes
- Découvrez d'autres ressources dans le dépôt GitHub Generative AI.
- Consultez d'autres tutoriels sur les notebooks Vertex AI dans la présentation des tutoriels.