A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Rilevamento automatico: Google utilizza classificatori di sicurezza automatici per rilevare potenziali abusi e violazioni. Per i dettagli tecnici sul funzionamento dei classificatori di sicurezza, vedi
Configurare i filtri di sicurezza.
Registrazione dei prompt: se i classificatori di sicurezza automatizzati rilevano attività sospette che richiedono ulteriori indagini per verificare se un cliente ha violato le nostre norme, Google può registrare i prompt dei clienti esclusivamente allo scopo di esaminare se si è verificata una violazione delle Norme di utilizzo accettabile o delle Norme di utilizzo vietato. Questi dati non verranno utilizzati per addestrare o perfezionare i modelli di AI/ML. Questi dati vengono archiviati in modo sicuro per un massimo di 30 giorni nella stessa regione o multi-regione selezionata dal cliente per il suo progetto e rispettano le Google Cloud garanzie, come la residenza dei dati, Access Transparency e i Controlli di servizio VPC. I clienti hanno anche la possibilità di richiedere la disattivazione del logging degli abusi (vedi sotto).
Azione: i dipendenti Google autorizzati possono valutare i prompt segnalati e contattare il cliente per chiarimenti. Il mancato intervento in merito al comportamento o ad abusi gravi o ricorrenti potrebbe comportare la sospensione o l'interruzione dell'accesso del cliente a Vertex AI o ai servizi Google Cloud .
Servizi inclusi nell'ambito: API Vertex AI, se utilizzata con i modelli linguistici di grandi dimensioni di Google.
Rinuncia del cliente: i clienti possono richiedere
un'eccezione compilando questo modulo. Se
approvati, Google non memorizzerà i prompt associati all'account
Google Cloud approvato.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-10 UTC."],[],[],null,["# Abuse monitoring\n\nAs outlined in Section 4.3 \"Generative AI Safety and Abuse\" of [Google Cloud Platform Terms of Service](/terms), Google uses the following process to detect potential abuse and violations of its\n[Acceptable Use Policy](/terms/aup) and\n[Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy) as part of providing Generative AI Services to customers.\n\n- **Automated detection** : Google uses automated safety classifiers to detect potential abuse and violations. For technical details on how safety classifiers work, see [Configure safety filters](/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters).\n- **Prompt logging**: If automated safety classifiers detect suspicious activity that requires further investigation into whether a customer has violated our policies, then Google may log customer prompts solely for the purpose of examining whether a violation of the AUP or Prohibited Use Policy has occurred. This data won't be used to train or fine-tune any AI/ML models. This data is stored securely for up to 30 days in the same region or multi-region selected by the customer for their project and adheres to Google Cloud assurances, such as Data Residency, Access Transparency and VPC Service Controls. Customers also have the option to request an opt-out from abuse logging (see below).\n- **Action**: Authorized Google employees may assess the flagged prompts and may reach out to the customer for clarification. Failure to address the behavior---or recurring or severe abuse---may result in suspension or termination of the customer's access to Vertex AI or Google Cloud services.\n- **Services in scope**: Vertex AI API, when used with Google's large language models.\n- **Customers in scope** : Only customers whose use of Google Cloud is governed by the [Google Cloud Platform Terms of Service](/terms) and who don't have an [invoiced (offline) Cloud Billing account](/billing/docs/concepts#billing_account_types) are subject to prompt logging for abuse monitoring.\n- **Customer opt-out** : Customers may request for an exception by filling out this [form](https://forms.gle/mtjKKas8a82grYN6A). If approved, Google won't store any prompts associated with the approved Google Cloud account.\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]