Tutoriels sur les notebooks Vertex AI avec IA générative

Ce document contient une liste de tutoriels de notebooks pour Generative AI sur Vertex AI. Ce sont des tutoriels de bout en bout qui vous montrent comment utiliser certains des LLM GenAI.

  • Cas d'utilisation multimodaux avec Gemini

    Explorez divers cas d'utilisation avec les modes multimodaux avec Gemini.

    Colab | Colab Enterprise | GitHub

  • Appeler des fonctions avec l'API Vertex AI Gemini et le SDK Python

    Utilisez l'API Vertex AI Gemini avec le SDK Vertex AI pour Python pour effectuer des appels de fonction à l'aide du modèle Gemini 1.0 Pro (gemini-1.0-pro).

    Colab | Colab Enterprise | GitHub

  • Premiers pas avec l'ancrage avec Gemini dans Vertex AI

    Utilisez des modèles de texte génératif pour générer du contenu basé sur vos documents et vos données.

    Colab | Colab Enterprise | GitHub

Liste des tutoriels

Filtrer par :
Gemini Multimode

Présentation de Gemini 1.5 Pro

Utilisez Gemini 1.5 Pro pour analyser des fichiers audio, comprendre des vidéos, extraire des informations d'un PDF et traiter plusieurs types de contenus multimédias simultanément.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Analyser une codebase

Utilisez ce notebook pour apprendre à générer du code, à résumer une codebase, à déboguer, à améliorer le code et à évaluer le code avec Gemini 1.5 Pro.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Premiers pas avec Gemini (cUrl)

Utilisez l'API Gemini, qui vous permet d'accéder aux derniers grands modèles de langage de Google avec REST/curl.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Premiers pas avec Gemini (SDK Python)

Utilisez l'API Gemini, qui vous donne accès aux derniers modèles volumineux de Google, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Cas d'utilisation multimodal avec Gemini

Le modèle Gemini est un modèle de langage multimodal révolutionnaire développé par Google AI, capable d'extraire des insights pertinents à partir de divers formats de données, y compris des images et des vidéos. Ce notebook explore différents cas d'utilisation avec des requêtes multimodales.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Premiers pas avec Gen AI Evaluation Service dans le SDK Vertex AI pour Python

Utilisez le SDK Gen AI Evaluation Service pour évaluer le modèle Gemini sur une tâche d'évaluation, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Ingénierie, évaluation et modélisation des requêtes avec Gemini

Utilisez le SDK Gen AI Evaluation Service pour le prompt engineering et l'évaluation des requêtes avec le modèle Gemini, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Comparer et sélectionner des modèles génératifs

Utilisez le SDK Gen AI Evaluation Service pour comparer et évaluer différents modèles génératifs sur une tâche d'évaluation spécifique, puis visualisez et comparez les résultats d'évaluation de la tâche avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Évaluer et comparer les paramètres de génération de modèle Gemini

Utilisez le SDK Gen AI Evaluation Service pour évaluer et sélectionner la température ainsi que d'autres configurations de génération de modèles de Gemini, puis comparez les résultats des métriques de différents paramètres de génération avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Comparer et migrer de PaLM vers le modèle Gemini

Ce notebook vous explique comment utiliser le SDK Gen AI Evaluation Service afin d'évaluer les modèles de base PaLM et Gemini avec plusieurs métriques d'évaluation, pour vous aider à prendre des décisions concernant la migration d'un modèle à un autre. Ces métriques sont visualisées pour vous aider à mieux comprendre les points forts et les points faibles de chaque modèle, et ainsi prendre une décision éclairée quant à celui qui correspond le mieux aux exigences spécifiques de votre cas d'utilisation.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Guide de migration de la version preview vers la version DG du SDK Gen AI Evaluation Service

Dans ce tutoriel, vous allez découvrir comment passer de la version preview à la dernière version DG du SDK Vertex AI Python pour Gen AI Evaluation Service afin d'évaluer la génération augmentée par récupération (RAG) et de comparer deux modèles côte à côte.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Évaluer et comparer les paramètres de génération de modèle Gemini

Utilisez le SDK Gen AI Evaluation Service pour évaluer et sélectionner la température ainsi que d'autres configurations de génération de modèles de Gemini, puis comparez les résultats des métriques de différents paramètres de génération avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Personnaliser les métriques basées sur un modèle pour évaluer un modèle d'IA générative

Utilisez le SDK Gen AI Evaluation Service pour personnaliser les métriques basées sur un modèle et évaluer un modèle d'IA générative en fonction de vos critères, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Utiliser votre propre outil d'évaluation automatique à l'aide de métriques personnalisées pour évaluer un modèle d'IA générative

Utilisez le SDK Gen AI Evaluation Service pour évaluer les modèles d'IA générative avec vos métriques personnalisées définies localement, et utilisez votre propre modèle d'outil d'évaluation automatique pour effectuer une évaluation des métriques basée sur un modèle, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Utiliser vos propres métriques personnalisées basées sur le calcul pour évaluer un modèle d'IA générative

Utilisez le SDK Gen AI Evaluation Service pour évaluer les modèles d'IA générative avec vos métriques personnalisées basées sur le calcul définies localement, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Évaluer la qualité de l'appel de fonction du modèle Gemini 1.0 Pro

Générez des appels de fonction avec le modèle Gemini 1.0 Pro, et utilisez le SDK Gen AI Evaluation Service pour évaluer la qualité des appels de fonction du modèle Gemini 1.0 Pro, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation Gemini

Évaluer les réponses générées par la génération augmentée par récupération (RAG) pour les systèmes de questions-réponses avec le SDK Gen AI Evaluation Service

Utilisez le SDK Gen AI Evaluation Service pour évaluer les réponses générées par la génération augmentée par récupération (RAG) pour une tâche de questions-réponses, avec le SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode Streamlit

Déployer une application Streamlit sur Cloud Run avec Gemini Pro

Exemple d'application permettant de déployer une application de chatbot simple utilisant Streamlit vers Cloud Run avec Gemini Pro.

Afficher sur GitHub

Gemini Multimode Retrieval-augmented-generation

RAG multimodal

En partant du principe du RAG, qui est traditionnellement appliquée sur les données textuelles, ce notebook explique comment effectuer du RAG sur des données multimodales à des fins de questions-réponses dans un article scientifique contenant du texte et des images.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Utiliser Gemini dans l'enseignement

Utilisation du modèle Gemini en enseignement, avec divers exemples de requêtes et dans plusieurs modalités, y compris des images et des vidéos.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode

Utiliser Gemini pour les recommandations multimodales dans le secteur du commerce de détail

Dans le secteur du commerce, les recommandations jouent un rôle déterminant dans la prise de décisions client et dans la génération de ventes. Dans ce notebook, vous découvrirez comment exploiter la puissance de la multimodalité pour exécuter des recommandations commerciales et aider un client à choisir la meilleure chaise parmi quatre images de chaises, en fonction d'une image de son salon.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Gemini Multimode Function-calling

Présentation des appels de fonctions avec Gemini

Utilisez le modèle Gemini Pro pour :

  • Générer des appels de fonction à partir d'une requête de texte pour obtenir la météo pour un lieu donné
  • Générer des appels de fonction à partir d'une requête de texte et appeler une API externe pour géocoder des adresses
  • Générer des appels de fonction à partir d'une requête de chat pour aider les utilisateurs professionnels

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Réglage

Régler les modèles de base avec Vertex AI

Passez en revue l'intégralité du processus de configuration et d'intégration. De la configuration de l'environnement à la sélection du modèle de base, puis au réglage avec Vertex AI.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation

Services d'évaluation Vertex AI LLM

Utilisez les services d'évaluation Vertex AI LLM en combinaison avec d'autres services Vertex AI.

Afficher sur GitHub

LangChain

Exécuter une chaîne langchain

Exécutez une chaîne langChain et imprimez les détails de chaque étape de la chaîne avec des points d'arrêt de débogage facultatifs.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Texte

Formation avancée sur le prompt engineering

Utilisez la chaîne de réflexion et de réaction (raison + action) pour développer des requêtes et réduire les hallucinations.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Embeddings

Utiliser les représentations vectorielles continues Vertex AI pour la recherche multimodale et vectorielle

Créez des embeddings de texte à image à l'aide de l'ensemble de données DiffusionDB et des embeddings Vertex AI pour le modèle multimodal. Les embeddings sont importées dans le service Vector Search, qui est une solution à grande échelle et à faible latence pour rechercher des vecteurs similaires pour un corpus volumineux.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Embeddings

Recherche sémantique à l'aide de représentations vectorielles continues

Créez un embedding généré à partir de texte et effectuez une recherche sémantique. Les embeddings sont générées à l'aide de Google ScaNN : recherche de similarité vectorielle efficace.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation

AutoSxS : évaluer un LLM dans Vertex AI Model Registry par rapport à un modèle tiers

Utilisez l'outil Vertex AI Automatic side-by-side (AutoSxS) pour évaluer les performances entre un modèle d'IA générative dans Vertex AI Model Registry et un modèle de langage tiers.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Évaluation

AutoSxS : vérifier l'alignement de l'outil d'évaluation automatique par rapport à un ensemble de données de préférences humaines

Utilisez l'outil Vertex AI Automatic side-by-side (AutoSxS) pour déterminer dans quelle mesure l'outil d'évaluation automatique s'aligne sur les évaluateurs humains.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Réglage

Apprentissage automatique par renforcement qui utilise le feedback humain Vertex AI LLM.

Utilisez Vertex AI RLHF pour régler un grand modèle de langage (LLM). Ce workflow améliore la précision d'un modèle en ajustant un modèle de base avec un ensemble de données d'entraînement.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Réglage

Inférence par lot de Vertex AI avec des modèles optimisés pour RLHF

Ce tutoriel explique comment effectuer une inférence sur des modèles de langage volumineux (LLM) OSS réglés par RLHF avec Vertex AI.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Embeddings

API Text Embedding

Essayez les nouveaux modèles d'embeddings textuels (ou "plongement textuel").

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Réglage

Régler un modèle PEFT avec Vertex AI

Réglez un grand modèle de langage (LLM) PEFT et effectuez une prédiction. Ce workflow améliore la précision d'un modèle en ajustant un modèle de base avec un ensemble de données d'entraînement.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Texte

Utiliser le SDK Vertex AI avec des grands modèles de langage.

Utilisez le SDK Vertex AI pour exécuter des modèles de langage volumineux sur Vertex AI. Testez, réglez et déployez des modèles de langage utilisant l'IA générative. Commencez par explorer des exemples de résumé de contenu, d'analyse des sentiments, de chat, d'embedding textuel et de réglage de requêtes.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Indexer des images Search Conversation dans le datastore

Vérificateur d'état Vertex AI Search et Conversation Data Store

Le testeur de l'état de Vertex AI Search et Conversation Data Store est un notebook qui utilise l'API Cloud Discovery Engine pour rechercher des documents indexés dans un datastore. Il permet à l'utilisateur d'effectuer les tâches suivantes :

  • Vérifier l'état d'indexation d'un ID de datastore donné.
  • Répertorier tous les documents d'un ID de datastore donné.
  • Répertorier toutes les URL indexées pour un ID de datastore donné.
  • Rechercher toutes les URL indexées pour une URL spécifique dans un ID de datastore donné.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Reconnaissance vocale Chirp

Premiers pas avec Chirp sur Google Cloud

Ce notebook est une introduction à Chirp, un service de reconnaissance vocale qui exploite la technologie de reconnaissance vocale de pointe de Google. Il fournit une interface simple et conviviale pour permettre aux développeurs de créer des applications de reconnaissance vocale.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Filtrer Métadonnées Search

Vertex AI Search avec filtres et métadonnées

Vertex AI Search est un service entièrement géré qui vous permet de créer et de déployer des applications de recherche sur Google Cloud. Ce notebook explique comment utiliser les filtres et les métadonnées dans les requêtes de recherche à Vertex AI Search.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Document Question-answering Retrieval-augmented-generation

Questions-réponses pour des documents avec RAG

Ce notebook explique comment utiliser la génération augmentée de récupération (RAG) pour créer un système de questions-réponses pour la documentation Google. Il montre comment utiliser RAG pour générer du texte qui répond à une question donnée et comment l'utiliser pour améliorer les performances d'un système de réponse aux questions.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Contrat Génération Récupération Search

Génération augmentée de récupération (à l'aide d'un magasin de données vectorielles Open Source) - Analyste contractuel Procurement - Palm2 et LangChain

Ce notebook explique comment utiliser la génération augmentée de récupération pour générer du texte dans un contrat. Il utilise les modèles Palm2 et LangChain, pré-entraînés sur les grands corpus de texte juridique et financier.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Question-answering Retrieval-augmented-generation Search LangChain

Système de questions-réponses sur des documents

Ce notebook explique comment poser des questions sur vos données et y répondre en combinant un moteur Vertex AI Search avec des LLM. En particulier, nous nous concentrons sur l'interrogation de données "non structurées", telles que les fichiers PDF et les fichiers HTML. Pour exécuter ce notebook, vous devez avoir créé un moteur de recherche non structuré et y avoir ingéré des documents PDF ou HTML.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Bulk-question-answering Vertex AI Search Question-answering Search

Répondre à des questions de manière groupée avec Vertex AI Search

Ce notebook explique comment répondre aux questions d'un fichier CSV à l'aide d'un datastore Vertex AI Search. Il peut être exécuté dans Colab ou Vertex AI Workbench.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Langue Orchestration LangChain PaLM

Premiers pas avec LangageChain 🦜🔗 + API PaLM

Ce notebook présente LangChain, un framework d'orchestration de modèles de langage. Il montre comment utiliser LangChain avec l'API PaLM pour créer et déployer un modèle de génération de texte.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

BigQuery Chargeur de données LangChain

Utiliser le chargeur de données BigQuery LangChain 🦜🔗

Ce notebook explique comment utiliser le chargeur de données BigQuery LangChain pour charger des données de BigQuery dans un modèle LangChain. Le notebook fournit des instructions détaillées pour configurer le chargeur de données, charger des données dans le modèle et entraîner le modèle.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Code Code-generation Retrieval-augmented-generation Codey

Utiliser la génération augmentée de récupération (RAG) avec les API Codey

Ce notebook explique comment utiliser la génération augmentée de récupération (RAG) avec les API Codey. La technique RAG combine la récupération de code et la génération de code pour produire des suggestions de saisie de code plus précises et informatives.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Codey Code-generation Langue

Premiers pas avec les API Vertex AI Codey – Génération de code

Ce notebook présente les API Vertex AI Codey pour la génération de code. Il aborde les principes de base de l'utilisation des API, y compris la création et le déploiement de modèles de génération de code, ainsi que leur utilisation pour générer du code.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Codey Code-completion Code-generation

Premiers pas avec les API Vertex AI Codey – Saisie de code

Ce notebook explique comment utiliser les API Vertex AI Codey pour obtenir des suggestions de saisie du code pour votre code Python. Elle montre également comment utiliser les API pour générer des extraits de code et les exécuter dans un environnement distant.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Codey Code-chat Chat Code-generation Text-generation

Premiers pas avec les API Vertex AI Codey – Chat de code

Ce notebook est une introduction aux API Vertex AI Codey. Il aborde les principes de base de l'utilisation des API, y compris la création et le déploiement de modèles, ainsi que la manière d'interagir avec eux à l'aide la CLI Codey.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Langue PaLM SDK Python

Premiers pas avec l'API PaLM et le SDK Python

Ce notebook présente l'API PaLM et le SDK Python. Il aborde les principes de base de l'utilisation de l'API, y compris la création et le déploiement de modèles, ainsi que la génération de texte, la traduction de langues et la rédaction de différents types de contenus de création.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Requêtes de langage

Conception des requêtes – Bonnes pratiques

Ce notebook présente la conception d'invites pour des modèles de langage textuels. Il aborde les principes de base des requêtes, y compris leur fonctionnement et leur écriture. Le notebook fournit également des conseils pour améliorer vos requêtes et éviter les pièges courants.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Text-extraction

Extraction de textes à l'aide de modèles génératifs sur Vertex AI

Ce notebook explique comment utiliser des modèles génératifs pour extraire du texte à partir d'images. Il utilise le modèle texte à image de la bibliothèque générative-ai de Vertex AI et le modèle d'extraction de texte de la bibliothèque d'extraction de texte Vertex AI.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Text-classification

Classification de textes à l'aide de modèles génératifs sur Vertex AI

Ce notebook explique comment utiliser des modèles génératifs pour effectuer une classification de texte sur Vertex AI. Il aborde les sujets suivants : * Préparer des données * Entraîner un modèle * Déployer un modèle * Utiliser un modèle pour classer du texte

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Chaîne de réflexion React

Chaîne de réflexion et ReAct

Ce notebook présente "String of Thought and ReAct", deux outils qui peuvent être utilisés pour améliorer les performances des algorithmes d'apprentissage par renforcement. La chaîne de réflexions est une technique qui peut être utilisée pour améliorer l'efficacité de l'itération des valeurs, tandis que la méthode ReAct peut être utilisée pour améliorer la stabilité des algorithmes critiques.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Requêtes de langage Conceptualisation

Conceptualisation avec les modèles génératifs sur Vertex AI

Ce notebook explique comment utiliser des modèles génératifs pour générer du texte, des images et du code. Il montre également comment utiliser Vertex AI pour déployer et gérer des modèles génératifs.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Synthèse

Résumer des textes à l'aide de modèles génératifs sur Vertex AI

Ce notebook explique comment utiliser Vertex AI pour entraîner et déployer un modèle de synthèse de texte. Cette solution utilise le modèle BART, un modèle de langage volumineux qui a été pré-entraîné sur un ensemble de données de texte volumineux. Le modèle est ensuite affiné sur un ensemble de données de résumés textuels, puis peut être utilisé pour générer des résumés de nouveau texte.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Systèmes de questions-réponses

Système de questions-réponses à l'aide de modèles génératifs sur Vertex AI

Ce notebook explique comment utiliser des modèles génératifs pour répondre aux questions de domaine ouvert. Il utilise le modèle Vertex AI Transformer pour générer du texte en fonction d'une question donnée.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Text-generation Foundation-model Réglage Déployer

Régler et déployer un modèle de fondation

Ce notebook montre comment ajuster un modèle de fondation à l'aide de Vertex AI. Il montre également comment déployer le modèle réglé sur un point de terminaison Vertex AI.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Document-summarization Synthèse

Synthèse texte de documents volumineux

Ce notebook explique comment résumer des documents volumineux à l'aide du modèle volumineux t5. Le modèle est entraîné sur un immense ensemble de données de texte et de code, et peut générer des résumés précis et concis.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Document-summarization LangChain Synthèse

Synthèse de documents volumineux avec LangChain 🦜🔗

Ce notebook explique comment résumer des documents volumineux à l'aide du modèle langChain. LangChain est un grand modèle de langage qui peut générer du texte, traduire des langues, écrire différents types de contenus créatifs et répondre à vos questions de manière informative.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Document-summarization Document AI Language-model Synthèse Text-summarization

Résumé avec des documents volumineux à l'aide de Document AI et des API PaLM

Ce notebook explique comment résumer des documents volumineux à l'aide des API Document AI et PaLM. Il montre également comment utiliser l'API Document AI pour extraire des entités et des expressions clés d'un document.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Chatbot Text-generation

GroceryBot, exemple d'assistant de courses et de recette : RAG + ReAct

Ce notebook concerne un exemple d'assistant de courses et de recette qui utilise RAG et ReAct. Il peut vous aider à trouver des recettes, à créer des listes de courses et à répondre à des questions sur les aliments.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Question-answering Document-QA LangChain

Systèmes de questions-réponses avec des documents volumineux à l'aide de LangChain 🦜🔗

Ce notebook explique comment utiliser le modèle langChain pour créer un système de questions-réponses qui peut répondre à des questions sur des documents longs. Le modèle est entraîné sur un grand corpus de texte et peut être utilisé pour répondre à des questions sur n'importe quel sujet.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Question-answering Document-QA LangChain Vector Search

Systèmes de questions-réponses avec des documents à l'aide de LangChain 🦜️🔗 et de Vertex AI Vector Search

Ce notebook explique comment utiliser LangChain et Vertex AI Vector Search (anciennement Matching Engine) pour créer un système de réponse aux questions pour les documents. Le système peut répondre aux questions concernant les entités, les dates et les nombres dans les documents.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Document AI Question-answering PaLM

Systèmes de questions-réponses avec des documents avec Document AI, Pandas et PaLM

Ce notebook explique comment utiliser Document AI, Pandas et PaLM pour créer un système de questions-réponses. Il utilise d'abord Document AI pour extraire les données structurées d'un document, puis Pandas pour créer un DataFrame à partir des données extraites, et enfin PaLM pour générer des réponses aux questions sur les données.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Question-answering Document-QA

Systèmes de questions-réponses avec des documents volumineux

Ce notebook explique comment utiliser le service de questions-réponses de Vertex AI pour créer un modèle de réponse aux questions à partir de documents volumineux. Le modèle est entraîné sur un ensemble de données d'articles Wikipédia et peut répondre à des questions sur divers sujets.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Génération d'images

Générateur de descriptions de produits à partir d'images

Ce notebook explique comment générer des descriptions de produits à partir d'images à l'aide d'un modèle texte vers image. Le modèle est entraîné sur un ensemble de données d'images de produits et les descriptions correspondantes.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Génération Commerce LangChain

DescriptionGen : Génération de description de produits optimisée pour le SEO pour le commerce à l'aide de LangageChain 🦜🔗

Ce notebook explique comment utiliser le modèle LangChain pour générer des descriptions de produits optimisées pour le SEO pour le secteur du commerce. Le modèle reçoit en entrée une liste d'attributs produit et génère une brève description mettant en évidence les principales caractéristiques du produit.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

BigQuery DataFrames Text-generation

DataFrame BigQuery ML : génération de noms de médicaments

Ce notebook explique comment utiliser les DataFrames BigQuery ML pour générer des noms de médicaments. Il utilise un modèle de langage pré-entraîné pour générer du texte, puis filtre les résultats pour supprimer les noms de médicaments déjà utilisés.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

BigQuery DataFrames Code-generation

Utiliser des objets DataFrame BigQuery avec l'IA générative pour la génération de code

Ce notebook explique comment utiliser les objets DataFrame BigQuery avec l'IA générative pour générer du code. Il montre comment utiliser un modèle de langage pré-entraîné pour générer du code qui transforme une table BigQuery en DataFrame Pandas.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

BigQuery Language-model

Utiliser les LLM Vertex AI avec des données dans BigQuery

Ce notebook explique comment utiliser les LLM Vertex AI avec des données dans BigQuery. Il montre comment charger des données depuis BigQuery, créer un modèle LLM, puis utiliser ce modèle pour générer du texte à partir des données.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Visualisation des similitudes entre embeddings

Visualiser la similarité des représentations vectorielles continues à partir de documents texte à l'aide de tracés t-SNE

Ce notebook explique comment visualiser la similarité des représentations vectorielles continues à partir de documents texte à l'aide de tracés t-SNE. Il utilise un ensemble de données d'avis sur les films provenant de l'[ensemble de données IMDB](https://datasets.imdbws.com/).

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Text-embeddings Vector Search

Premiers pas avec les embeddings de texte et Vertex AI Vector Search

Ce notebook présente les embeddings de texte et explique comment les utiliser avec Vertex AI Vector Search. Il aborde les principes de base des embeddings de texte et explique comment les entraîner et les utiliser pour effectuer des recherches vectorielles.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Recherche de vecsteurs dans les embeddings

Guide de démarrage rapide de Vertex AI Vector Search

Ce notebook est un guide de démarrage rapide pour l'utilisation de Vertex AI Vector Search. Il aborde les principes de base de la recherche vectorielle, y compris la création d'un index vectoriel, l'importation de données dans l'index et l'exécution de requêtes de recherche vectorielle.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Génération d'images Imagen 3

Génération d'images avec Imagen sur Vertex AI.

Dans ce notebook, vous explorez les fonctionnalités de génération d'images d'Imagen à l'aide du SDK Vertex AI pour Python et de modèles standards et à faible latence Imagen 3. En savoir plus sur la fonctionnalité de génération d'images d'Imagen.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Génération d'images Imagen 2

Génération d'images avec Imagen sur Vertex AI.

Dans ce notebook, vous explorez les fonctionnalités de génération d'images d'Imagen à l'aide du SDK Vertex AI pour Python. En savoir plus sur la fonctionnalité de génération d'images d'Imagen.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Génération d'images Imagen 3

Génération de texte Gemini 1.5 Pro

Mise en forme du texte de sortie Gemini 1.5 Pro

Créer des éléments visuels de haute qualité avec Imagen 3 et Gemini 1.5 Pro

Dans ce notebook, vous créez des éléments visuels de haute qualité pour un menu de restaurant à l'aide d'Imagen et de Gemini 1.5 Pro. En savoir plus sur la génération d'images et les modèles multimodaux.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Modification d'images Imagen 2

Créez des éléments visuels de haute qualité avec Imagen 2 à l'aide de zones de masquage générées automatiquement

Dans ce notebook, vous allez explorer les fonctionnalités de retouche d'images d'Imagen à l'aide de SDK Vertex AI pour Python.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Système de question-réponse (VQA) d'images Imagen

Visual Question Answering (VQA) avec Imagen sur Vertex AI

Ce notebook explique comment utiliser Imagen pour générer des images qui répondent à des questions données. Il montre également comment déployer un modèle sur Vertex AI et l'utiliser pour générer des images en réponse à des questions fournies par l'utilisateur.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Sous-titrage d'images Imagen

Visual Captioning avec Imagen sur Vertex AI

Ce notebook explique comment générer des sous-titres pour des images à l'aide d'Imagen, un grand modèle de langage pour la génération d'images. Il montre également comment déployer le modèle sur Vertex AI.

Ouvrir dans Colab

Ouvrir dans Colab Enterprise

Afficher sur GitHub

Étapes suivantes