Versioni e ciclo di vita del modello di generazione di risposte
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
AI Applications offre più versioni del modello tra cui scegliere quando generi risposte. Puoi scegliere le versioni del modello quando utilizzi i riepiloghi
della ricerca e le risposte e
i follow-up.
Modelli disponibili
AI Applications utilizza due tipi di modelli per i casi d'uso di domande e risposte:
Modelli LLM Vertex AI testati su attività di domande e
risposte
Modelli di applicazioni AI basati su modelli LLM di Vertex AI e ulteriormente addestrati per rispondere a domande e risposte
I modelli AI Applications condividono la stessa data di ritiro dei modelli
LLM Vertex AI di base. Il modello LLM di base è disponibile per sei
mesi dopo la data di rilascio della versione successiva del modello, in base alle norme
sul ciclo di vita dei modelli
Vertex AI.
Lascia tempo sufficiente per eseguire la migrazione ai nuovi modelli prima delle date di ritiro.
La tabella seguente elenca le specifiche della versione del modello. Quando imposti una specifica del modello, l'API utilizza il modello specificato per generare le risposte.
Verticale di settore
Personalizzato
Sanità
Versione del modello
Descrizione
Finestra contestuale
Data di interruzione
Descrizione
Finestra contestuale
Data di interruzione
stable
La scelta del modello predefinito se la versione del modello non è impostata.
La specifica del modello stable rimanda a
gemini-2.5-flash/answer_gen/v1.
Il modello designato come stable cambia periodicamente man mano che diventano disponibili nuovi modelli e versioni.
128.000
N/D
La scelta del modello predefinito se la versione del modello non è impostata.
La specifica del modello stable rimanda a
gemini-2.5-flash/answer_gen/v1.
Il modello designato come stable cambia periodicamente man mano che diventano disponibili nuovi modelli e versioni.
128.000
N/D
gemini-2.5-flash/answer_gen/v1
Un modello di applicazioni AI basato sul modello gemini-2.5-flash con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
17 giugno 2026
Un modello di applicazioni AI basato sul modello gemini-2.5-flash con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
17 giugno 2026
gemini-2.0-flash-001/answer_gen/v1
Un modello di applicazioni AI basato sul modello gemini-2.0-flash-001 con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
5 febbraio 2026
Un modello di applicazioni AI basato sul modello gemini-2.0-flash-001 con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
5 febbraio 2026
gemini-1.5-flash-002/answer_gen/v1
Un modello di applicazioni AI basato sul modello gemini-1.5-flash-002 con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
24 settembre 2025
Non disponibile
gemini-1.5-flash-001/answer_gen/v2
Un modello di applicazioni AI basato sul modello gemini-1.5-flash-001 con ottimizzazione aggiuntiva (versione 2) su dati strutturati e non strutturati combinati per rispondere a domande e attività.
Il modello viene bloccato dopo il rilascio.
128.000
24 maggio 2025
Un modello di applicazioni AI basato sul modello gemini-1.5-flash-001 con ottimizzazione aggiuntiva (versione 2) su dati strutturati e non strutturati combinati per rispondere a domande e attività.
Il modello viene bloccato dopo il rilascio.
128.000
24 maggio 2025
gemini-1.5-flash-001/answer_gen/v1
Un modello di applicazioni AI basato sul modello gemini-1.5-flash-001 con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
24 maggio 2025
Un modello di applicazioni AI basato sul modello gemini-1.5-flash-001 con un'ulteriore ottimizzazione per rispondere alle domande.
Il modello viene bloccato dopo il rilascio.
128.000
24 maggio 2025
preview
La specifica del modello di anteprima punta all'ultimo modello gemini-1.5-pro-002. Il modello di anteprima è soggetto a modifiche senza preavviso. Se
utilizzi preview come modello, potresti notare modifiche nelle risposte quando il
modello cambia. Se vuoi coerenza nelle risposte, seleziona un modello specifico.
128.000
N/D
La specifica del modello di anteprima punta all'ultimo modello gemini-1.5-pro-002. Il modello di anteprima è soggetto a modifiche senza preavviso. Se
utilizzi preview come modello, potresti notare modifiche nelle risposte quando il
modello cambia. Se vuoi coerenza nelle risposte, seleziona un modello specifico.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-05 UTC."],[[["\u003cp\u003eVertex AI Search offers a selection of model versions for generating answers, accessible when using search summaries and answers with follow-ups.\u003c/p\u003e\n"],["\u003cp\u003eThere are two main types of models used by Vertex AI Search for question-and-answer tasks: Vertex AI LLM models and Vertex AI Search models, the latter being further trained based on LLMs.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003estable\u003c/code\u003e model designation in Vertex AI Search automatically updates to the most current model version available, whereas other model versions remain frozen after their release.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI Search models share the same discontinuation date as their base Vertex AI LLM models, with the base LLM models being supported for six months after the release of the subsequent version.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003epreview\u003c/code\u003e model specfication uses the latest \u003ccode\u003egemini-1.5-pro-002\u003c/code\u003e model, and is subject to change without notification.\u003c/p\u003e\n"]]],[],null,["# Answer generation model versions and lifecycle\n\nAI Applications offers multiple model versions for you to choose when\ngenerating answers. You can choose the model versions when using [search\nsummaries](/generative-ai-app-builder/docs/get-search-summaries) and [answers and\nfollow-ups](/generative-ai-app-builder/docs/answer).\n\nAvailable models\n----------------\n\nAI Applications uses two types of models for question and answering\nuse cases:\n\n- Vertex AI LLM models that have been tested on question and answering tasks\n- AI Applications models that are based on Vertex AI LLM models and further trained to address question and answering tasks\n\nAI Applications models share the same discontinuation date as their\nbase Vertex AI LLM models. The base LLM model is available for six\nmonths after the release date of the next version of the model, per the [Vertex\nAI model lifecycle\npolicy](/vertex-ai/generative-ai/docs/learn/model-versioning).\nLeave enough time to migrate to new models before the discontinuation dates.\n\nThe following table lists model version specifications. When you set a model\nspecification, the API uses the specified model to generate answers.\n\nWhat's next\n-----------\n\n- [Get search summaries](/generative-ai-app-builder/docs/get-search-summaries)"]]