Google Cloud propose une gamme de produits et d'outils pour l'ensemble du cycle de vie de la création d'applications d'IA générative.

Découvrez comment créer des applications d'IA générative.

IA générative sur Vertex AI

Accédez aux grands modèles d'IA générative de Google, afin de pouvoir les tester, les régler et les déployer pour les utiliser dans vos applications basées sur l'IA.

Guide de démarrage rapide Gemini

Découvrez comment envoyer des requêtes à l'API Gemini via la plate-forme d'IA et de ML de Google Cloud, Vertex AI.

Choisir une infrastructure pour votre application d'IA générative

Choisissez les meilleurs produits et outils pour votre cas d'utilisation et accédez à la documentation dont vous avez besoin pour vous lancer.

Quand utiliser l'IA générative ?

Déterminez si l'IA générative, l'IA traditionnelle, ou une combinaison des deux, convient à votre cas d'utilisation professionnel.

Développer une application d'IA générative

Découvrez comment relever les défis à chaque étape du développement d'une application d'IA générative.

Exemples de code et applications exemples

Consultez des exemples de code pour des cas d'utilisation courants et déployez des exemples d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.

Exploration et hébergement de modèles

Google Cloud fournit un ensemble de modèles de fondation de pointe via Vertex AI, y compris Gemini. Vous pouvez également déployer un modèle tiers vers Vertex AI Model Garden ou l'auto-hébergement sur GKE ou Compute Engine.

Modèles Google sur Vertex AI (Gemini, Imagen)

Découvrez, testez, personnalisez et déployez des modèles et des éléments Google à partir d'une bibliothèque de modèles de ML.

Autres modèles dans Vertex AI Model Garden

Découvrez, testez, personnalisez et déployez des modèles et des éléments OSS sélectionnés à partir d'une bibliothèque de modèles de ML.

Modèles de génération de texte via Hugging Face

Découvrez comment déployer des modèles de génération de texte HuggingFace dans Vertex AI ou Google Kubernetes Engine (GKE).

Orchestration IA/ML sur GKE

GKE orchestre efficacement les charges de travail d'IA/ML, en prenant en charge les GPU et les TPU pour l'entraînement et le service d'IA générative évolutive.

GPU sur Compute Engine

Associez des GPU à des instances de VM pour accélérer les charges de travail d'IA générative sur Compute Engine.

Conception et ingénierie des requêtes

La conception de requêtes est le processus de création de paires de requêtes et de réponses pour fournir aux modèles de langage un contexte et des instructions supplémentaires. Une fois que vous avez créé des requêtes, vous les transmettez au modèle en tant qu'ensemble de données de requêtes pour le pré-entraînement. Lorsqu'un modèle génère des prédictions, il répond avec vos instructions intégrées.

Vertex AI Studio

Concevez, testez et personnalisez les requêtes envoyées aux grands modèles de langage (LLM) Gemini et PaLM 2 de Google.

Présentation des stratégies de requête

Découvrez le workflow de conception de requêtes et les stratégies courantes que vous pouvez utiliser pour affecter les réponses du modèle.
Consultez des exemples d'invites et de réponses pour des cas d'utilisation spécifiques.

Ancrage et RAG

L'ancrage connecte les modèles d'IA à des sources de données pour améliorer la précision des réponses et réduire les hallucinations. Le RAG, une technique d'ancrage courante, recherche des informations pertinentes et les ajoute à la requête du modèle, ce qui garantit que la sortie est basée sur des faits et des informations à jour.

Vertex AI grounding

Vous pouvez ancrer les modèles Vertex AI avec la recherche Google ou avec vos propres données stockées dans Vertex AI Search.
Utilisez l'ancrage avec la recherche Google pour associer le modèle aux connaissances à jour disponibles sur Internet.

Embeddings vectoriels dans AlloyDB

Utilisez AlloyDB pour générer et stocker des embeddings vectoriels, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.

Cloud SQL et pgvector

Stockez des embeddings vectoriels dans Postgres SQL, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.

Intégrer des données BigQuery dans votre application LangChain

Utilisez LangChain pour extraire des données de BigQuery, et enrichir et valider les réponses de votre modèle.

Embeddings vectoriels dans Firestore

Créez des embeddings vectoriels à partir de vos données Firestore, puis indexez-les et interrogez-les.

Emplacements vectoriels dans Memorystore (Redis)

Utilisez LangChain pour extraire des données de Memorystore, et enrichir et valider les réponses de votre modèle.

Appels d'agents et de fonctions

Les agents permettent de concevoir et d'intégrer facilement une interface utilisateur de conversation dans votre application mobile, tandis que l'appel de fonction étend les capacités d'un modèle.

Vertex AI Agent Builder

Exploitez les modèles de fondation, l'expertise en recherche et les technologies d'IA conversationnelle de Google pour créer des applications d'IA générative de niveau professionnel.

Appel de fonction Vertex AI

Ajoutez une fonction d'appel à votre modèle pour permettre des actions telles que la réservation d'un rendez-vous en fonction des informations extraites du calendrier.

Personnalisation et entraînement du modèle

Les tâches spécialisées, telles que l'entraînement d'un modèle de langage sur une terminologie spécifique, peuvent nécessiter plus d'entraînement qu'une conception de requête ou un ancrage seul. Dans ce cas, vous pouvez utiliser le réglage du modèle pour améliorer les performances ou entraîner votre propre modèle.

Évaluer des modèles dans Vertex AI

Évaluez les performances des modèles de fondation et de vos modèles d'IA générative réglés sur Vertex AI.

Régler les modèles Vertex AI

Les modèles de fondation à usage général peuvent bénéficier d'un réglage pour améliorer leurs performances sur des tâches spécifiques.

Cloud TPU

Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning, comme l'entraînement d'un LLM.

Démarrer la création

LangChain est un framework Open Source pour les applications d'IA générative qui vous permet d'intégrer du contexte dans vos requêtes et d'agir en fonction de la réponse du modèle.
Consultez des exemples de code pour des cas d'utilisation courants et des exemples de déploiement d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.