Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page fournit les conditions préalables et des instructions détaillées pour affiner Gemini sur des données textuelles à l'aide de l'apprentissage supervisé. Pour obtenir des exemples de réglage du texte pour les cas d'utilisation de classification, d'analyse des sentiments et d'extraction, consultez la page Réglage des modèles pour les modèles textuels Gemini.
Cas d'utilisation
L'affinage vous permet d'adapter des modèles Gemini de base à des tâches spécialisées.
Voici quelques cas d'utilisation du texte:
Extraire des informations structurées à partir des discussions: transformez les conversations à plusieurs tours en données organisées en ajustant un modèle pour identifier les attributs clés et les restituer dans un format structuré tel que JSONL.
Classification des documents: affinez un modèle pour classer précisément les documents volumineux dans des catégories prédéfinies, ce qui permet d'organiser et de récupérer efficacement les informations.
Suivi des instructions: améliore la capacité d'un modèle à comprendre et à exécuter des instructions, ce qui permet d'accomplir des tâches plus précises et fiables.
Examen du code automatisé: utilisez l'ajustement fin pour créer un modèle capable de fournir des examens du code pertinents, d'identifier les problèmes potentiels et de suggérer des améliorations.
Synthèse: générez des résumés concis et informatifs de textes longs en ajustant un modèle pour capturer l'essence du contenu.
Génération de code et de DSL: affinez un modèle pour générer du code dans différents langages de programmation ou langages spécifiques au domaine (DSL), en automatisant les tâches de codage répétitives.
Amélioration des performances de la génération augmentée par récupération (RAG): améliorez l'utilité et la justesse des systèmes de génération augmentée par récupération (RAG) en ajustant le modèle de langage sous-jacent.
Format de l'ensemble de données
L'fileUri de votre ensemble de données peut être l'URI d'un fichier dans un bucket Cloud Storage ou une URL HTTP ou HTTPS accessible au public.
Voici un exemple d'ensemble de données textuelles.
{"systemInstruction":{"role":"system","parts":[{"text":"You are a pirate dog named Captain Barktholomew."}]},"contents":[{"role":"user","parts":[{"text":"Hi"}]},{"role":"model","parts":[{"text":"Argh! What brings ye to my ship?"}]},{"role":"user","parts":[{"text":"What's your name?"}]},{"role":"model","parts":[{"text":"I be Captain Barktholomew, the most feared pirate dog of the seven seas."}]}]}
Exemples d'ensembles de données
Vous pouvez utiliser les exemples d'ensembles de données suivants pour apprendre à régler un modèle Gemini. Pour utiliser ces ensembles de données, spécifiez les URI dans les paramètres applicables lors de la création d'un job de réglage supervisé d'un modèle de texte.
Pour utiliser l'exemple d'ensemble de données de réglage, spécifiez son emplacement comme suit:
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Text tuning\n\nThis page provides prerequisites and detailed instructions for fine-tuning\nGemini on text data using supervised learning. For text tuning examples\nof classification, sentiment analysis, and extraction use cases,\nsee [Model tuning for Gemini text models](/vertex-ai/generative-ai/docs/models/tune_gemini/tune-gemini-learn).\n\nUse cases\n---------\n\nFine-tuning lets you adapt base Gemini models for specialized tasks.\nHere are some text use cases:\n\n- **Extracting structured information from chats**: Transform multi-turn conversations into organized data by fine-tuning a model to identify key attributes and output them in a structured format like JSONL.\n- **Document categorization**: Fine-tune a model to accurately classify lengthy documents into predefined categories, enabling efficient organization and retrieval of information.\n- **Instruction following**: Enhance a model's ability to comprehend and execute instructions, leading to more accurate and reliable task completion.\n- **Automated code review**: Use fine-tuning to create a model capable of providing insightful code reviews, identifying potential issues, and suggesting improvements.\n- **Summarization**: Generate concise and informative summaries of long texts by fine-tuning a model to capture the essence of the content.\n- **Code and DSL generation**: Fine-tune a model to generate code in various programming languages or domain-specific languages (DSLs), automating repetitive coding tasks.\n- **Improved RAG performance**: Enhance the helpfulness and accuracy of Retrieval-Augmented Generation (RAG) systems by fine-tuning the underlying language model.\n\nDataset format\n--------------\n\nThe `fileUri` for your dataset can be the URI for a file in a Cloud Storage\nbucket, or it can be a publicly available HTTP or HTTPS URL.\n\nThe following is an example of a text dataset.\n\nTo see the generic format example, see\n[Dataset example for Gemini](/vertex-ai/generative-ai/docs/models/gemini-supervised-tuning-prepare#dataset-example). \n\n {\n \"systemInstruction\": {\n \"role\": \"system\",\n \"parts\": [\n {\n \"text\": \"You are a pirate dog named Captain Barktholomew.\"\n }\n ]\n },\n \"contents\": [\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"Hi\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"Argh! What brings ye to my ship?\"\n }\n ]\n },\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"What's your name?\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"I be Captain Barktholomew, the most feared pirate dog of the seven seas.\"\n }\n ]\n }\n ]\n }\n\n### Sample datasets\n\nYou can use the following sample datasets to learn how to tune a\nGemini model. To use these datasets, specify the URIs in the\napplicable parameters when creating a text model supervised fine-tuning job.\n\nTo use the sample tuning dataset, specify its location as follows: \n\n \"training_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_train_data.jsonl\",\n\nTo use the sample validation dataset, specify its location as follows: \n\n \"validation_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_validation_data.jsonl\",\n\nWhat's next\n-----------\n\n- To start tuning, see [Tune Gemini models by using supervised fine-tuning](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning).\n- To learn how supervised fine-tuning can be used in a solution that builds a generative AI knowledge base, see [Jump Start Solution: Generative AI knowledge base](/architecture/ai-ml/generative-ai-knowledge-base)."]]