A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Questa pagina fornisce i prerequisiti e le istruzioni dettagliate per perfezionare Gemini sui dati di testo utilizzando l'apprendimento supervisionato. Per esempi di ottimizzazione del testo
di casi d'uso di classificazione, analisi del sentiment ed estrazione,
consulta Ottimizzazione del modello per i modelli di testo Gemini.
Casi d'uso
La messa a punto fine ti consente di adattare i modelli di base di Gemini per attività specializzate.
Ecco alcuni casi d'uso del testo:
Estrazione di informazioni strutturate dalle chat: trasforma le conversazioni con più turni in dati organizzati ottimizzando un modello per identificare gli attributi chiave e generare output in un formato strutturato come JSONL.
Classificazione dei documenti: perfeziona un modello per classificare con precisione documenti lunghi in categorie predefinite, consentendo un'organizzazione e un recupero efficienti delle informazioni.
Seguimento delle istruzioni: migliora la capacità di un modello di comprendere ed eseguire istruzioni, il che consente di completare le attività in modo più accurato e affidabile.
Revisione automatica del codice: utilizza la messa a punto per creare un modello in grado di fornire revisioni del codice approfondite, identificare potenziali problemi e suggerire miglioramenti.
Riassunto: genera riassunti concisi e informativi di testi lunghi ottimizzando un modello per cogliere l'essenza dei contenuti.
Generazione di codice e DSL: perfeziona un modello per generare codice in vari linguaggi di programmazione o linguaggi specifici per il dominio (DSL), automatizzando le attività di programmazione ripetitive.
Miglioramento delle prestazioni RAG: migliora l'utilità e l'accuratezza dei sistemi RAG (Retrieval Augmented Generation) perfezionando il modello linguistico sottostante.
Formato del set di dati
fileUri per il set di dati può essere l'URI di un file in un bucket Cloud Storage o un URL HTTP o HTTPS disponibile pubblicamente.
Di seguito è riportato un esempio di set di dati di testo.
{"systemInstruction":{"role":"system","parts":[{"text":"You are a pirate dog named Captain Barktholomew."}]},"contents":[{"role":"user","parts":[{"text":"Hi"}]},{"role":"model","parts":[{"text":"Argh! What brings ye to my ship?"}]},{"role":"user","parts":[{"text":"What's your name?"}]},{"role":"model","parts":[{"text":"I be Captain Barktholomew, the most feared pirate dog of the seven seas."}]}]}
Set di dati di esempio
Puoi utilizzare i seguenti set di dati di esempio per scoprire come ottimizzare un
modello Gemini. Per utilizzare questi set di dati, specifica gli URI nei parametri applicabili quando crei un job di ottimizzazione fine supervisionata del modello di testo.
Per utilizzare il set di dati di ottimizzazione di esempio, specifica la relativa posizione come segue:
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Text tuning\n\nThis page provides prerequisites and detailed instructions for fine-tuning\nGemini on text data using supervised learning. For text tuning examples\nof classification, sentiment analysis, and extraction use cases,\nsee [Model tuning for Gemini text models](/vertex-ai/generative-ai/docs/models/tune_gemini/tune-gemini-learn).\n\nUse cases\n---------\n\nFine-tuning lets you adapt base Gemini models for specialized tasks.\nHere are some text use cases:\n\n- **Extracting structured information from chats**: Transform multi-turn conversations into organized data by fine-tuning a model to identify key attributes and output them in a structured format like JSONL.\n- **Document categorization**: Fine-tune a model to accurately classify lengthy documents into predefined categories, enabling efficient organization and retrieval of information.\n- **Instruction following**: Enhance a model's ability to comprehend and execute instructions, leading to more accurate and reliable task completion.\n- **Automated code review**: Use fine-tuning to create a model capable of providing insightful code reviews, identifying potential issues, and suggesting improvements.\n- **Summarization**: Generate concise and informative summaries of long texts by fine-tuning a model to capture the essence of the content.\n- **Code and DSL generation**: Fine-tune a model to generate code in various programming languages or domain-specific languages (DSLs), automating repetitive coding tasks.\n- **Improved RAG performance**: Enhance the helpfulness and accuracy of Retrieval-Augmented Generation (RAG) systems by fine-tuning the underlying language model.\n\nDataset format\n--------------\n\nThe `fileUri` for your dataset can be the URI for a file in a Cloud Storage\nbucket, or it can be a publicly available HTTP or HTTPS URL.\n\nThe following is an example of a text dataset.\n\nTo see the generic format example, see\n[Dataset example for Gemini](/vertex-ai/generative-ai/docs/models/gemini-supervised-tuning-prepare#dataset-example). \n\n {\n \"systemInstruction\": {\n \"role\": \"system\",\n \"parts\": [\n {\n \"text\": \"You are a pirate dog named Captain Barktholomew.\"\n }\n ]\n },\n \"contents\": [\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"Hi\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"Argh! What brings ye to my ship?\"\n }\n ]\n },\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"What's your name?\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"I be Captain Barktholomew, the most feared pirate dog of the seven seas.\"\n }\n ]\n }\n ]\n }\n\n### Sample datasets\n\nYou can use the following sample datasets to learn how to tune a\nGemini model. To use these datasets, specify the URIs in the\napplicable parameters when creating a text model supervised fine-tuning job.\n\nTo use the sample tuning dataset, specify its location as follows: \n\n \"training_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_train_data.jsonl\",\n\nTo use the sample validation dataset, specify its location as follows: \n\n \"validation_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_validation_data.jsonl\",\n\nWhat's next\n-----------\n\n- To start tuning, see [Tune Gemini models by using supervised fine-tuning](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning).\n- To learn how supervised fine-tuning can be used in a solution that builds a generative AI knowledge base, see [Jump Start Solution: Generative AI knowledge base](/architecture/ai-ml/generative-ai-knowledge-base)."]]