A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
I modelli linguistici di grandi dimensioni (LLM) possono tradurre lingue, riassumere testi, generare
scrittura creativa, generare codice, alimentare chatbot e assistenti virtuali e
integrare motori di ricerca e sistemi di raccomandazione. Allo stesso tempo, essendo una tecnologia ancora in fase iniziale, le sue capacità e i suoi utilizzi in evoluzione generano un potenziale di applicazioni errate, usi impropri e conseguenze non volute o impreviste. I modelli
linguistici di grandi dimensioni possono generare output inaspettati, tra cui testi
offensivi, insensibili o oggettivamente errati.
Inoltre, l'incredibile versatilità degli LLM rende difficile
prevedere esattamente quali tipi di output indesiderati o imprevisti potrebbero
produrre. Considerati questi rischi e queste complessità, le API Vertex AI per l'AI generativa sono progettate tenendo conto dei
principi di Google AI. Tuttavia, è importante che gli sviluppatori comprendano
e testino i propri modelli per eseguire il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio dispone di un filtro dei contenuti integrato e le nostre API di AI generativa hanno un sistema di valutazione degli attributi di sicurezza per aiutare i clienti a testare i filtri di sicurezza di Google e definire le soglie di confidenza più adatte al loro caso d'uso e alla loro attività.
Per saperne di più, consulta la sezione Filtri e attributi di sicurezza.
Quando le nostre API generative vengono integrate nel tuo caso d'uso e contesto unici, potrebbero essere necessarie ulteriori considerazioni sull'AI responsabile e limitazioni. Invitiamo i clienti a promuovere l'equità, l'interpretabilità, la privacy e la sicurezza
pratiche consigliate.
Filtri di sicurezza e attributi
Per scoprire come utilizzare filtri e attributi di sicurezza per un'API,
consulta API Gemini in Vertex AI.
Limitazioni del modello
Le limitazioni che puoi riscontrare quando utilizzi i modelli di AI generativa includono (ma non sono limitate a):
Casi limite: i casi limite si riferiscono a situazioni insolite, rare o eccezionali
che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nelle prestazioni del modello, come eccessiva sicurezza del modello, interpretazione errata del contesto o output inappropriati.
Allucinazioni, fondatezza e oggettività del modello: i modelli di AI generativa
possono mancare di oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o nella
comprensione accurata. Questa limitazione può portare ad allucinazioni del modello, ovvero a casi in cui può generare output che sembrano plausibili ma che sono errati, irrilevanti, inappropriati o privi di senso. Per ridurre questa possibilità, puoi basare i modelli sui tuoi
dati specifici. Per saperne di più sul grounding in Vertex AI, consulta la
Panoramica del grounding.
Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e la distorsione del prompt o dei dati inseriti in un modello possono influire in modo significativo sulle sue prestazioni. Se gli utenti inseriscono dati o prompt imprecisi o errati, il modello può avere prestazioni non ottimali o generare output falsi.
Amplificazione dei bias: i modelli di AI generativa possono amplificare inavvertitamente
i bias esistenti nei dati di addestramento, generando output che possono rafforzare ulteriormente
i pregiudizi sociali e il trattamento iniquo di determinati gruppi.
Qualità della lingua: sebbene i modelli offrano capacità multilingue
impressionanti nei benchmark che abbiamo valutato, la maggior parte dei nostri
benchmark (incluse tutte le valutazioni di equità) sono in inglese. Per ulteriori informazioni, consulta il
blog di Google Research.
I modelli di AI generativa possono fornire una qualità del servizio non uniforme a
diversi utenti. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace
per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei
dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o
per le varietà della lingua inglese con una rappresentazione minore.
Benchmark e sottogruppi di equità: le analisi di equità di Google Research
dei nostri modelli di AI generativa non forniscono un resoconto esaustivo dei
vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, razza e religione, ma eseguiamo l'analisi solo sui dati e sugli output del modello in lingua inglese. Per ulteriori informazioni, consulta il
blog di Google Research.
Competenze di dominio limitate: i modelli di AI generativa potrebbero non avere la profondità di
conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente
specializzati o tecnici, il che potrebbe portare a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli devono essere ottimizzati in base a dati specifici del dominio e deve essere presente una supervisione umana significativa in contesti con il potenziale di influire in modo sostanziale sui diritti individuali.
Lunghezza e struttura di input e output: i modelli di AI generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo limite, i nostri classificatori di sicurezza non vengono applicati, il che potrebbe portare a prestazioni del modello scadenti. Sebbene i nostri modelli siano progettati per gestire un'ampia
gamma di formati di testo, le loro prestazioni possono essere influenzate se i dati di input
hanno una struttura insolita o complessa.
Pratiche consigliate
Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche
considerare altri rischi specifici per il tuo caso d'uso, i tuoi utenti e il contesto aziendale
oltre alle misure di salvaguardia tecniche integrate.
Ti consigliamo di procedere nel seguente modo:
Valuta i rischi per la sicurezza della tua applicazione.
Esegui test di sicurezza appropriati al tuo caso d'uso.
Se necessario, configura i filtri di sicurezza.
Richiedi il feedback degli utenti e monitora i contenuti.
Segnala abuso
Puoi segnalare un sospetto abuso del Servizio o qualsiasi output generato che
contenga materiale inappropriato o informazioni imprecise utilizzando il seguente
modulo:
Segnala un sospetto abuso su Google Cloud.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]