自動検出: Google は自動安全分類システムを使用して、潜在的な不正行為や違反を検出します。安全性分類システムの仕組みの技術的な詳細については、安全性フィルタを構成するをご覧ください。
プロンプト ロギング: 自動安全分類システムが、お客様が Google のポリシーに違反しているかどうか詳細な調査が必要な不審なアクティビティを検出した場合、Google は、AUP または禁止されている使用に関するポリシーに違反しているかどうかを調査する目的でのみ、お客様のプロンプトをログに記録することがあります。このデータは、AI / ML モデルのトレーニングやファインチューニングに使用されることはありません。このデータは、プロジェクト用にお客様が選択したリージョンまたはマルチリージョンに最大 30 日間安全に保存され、データ所在地、アクセスの透明性、VPC Service Controls などの Google Cloud の保証に準拠しています。お客様は、不正使用のロギングをオプトアウトすることもできます(下記を参照)。
対応: フラグが立てられたメッセージは、Google の認定社員が評価し、お客様に確認を求める場合があります。この行為に対処しなかった場合、または不正行為が繰り返された場合や悪質な場合は、Vertex AI または Google Cloud サービスへのお客様のアクセスが停止または解除される可能性があります。
対象サービス: Vertex AI API(Google の大規模言語モデルと組み合わせて使用する場合)。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-08-28 UTC。"],[],[],null,["# Abuse monitoring\n\nAs outlined in Section 4.3 \"Generative AI Safety and Abuse\" of [Google Cloud Platform Terms of Service](/terms), Google uses the following process to detect potential abuse and violations of its\n[Acceptable Use Policy](/terms/aup) and\n[Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy) as part of providing Generative AI Services to customers.\n\n- **Automated detection** : Google uses automated safety classifiers to detect potential abuse and violations. For technical details on how safety classifiers work, see [Configure safety filters](/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters).\n- **Prompt logging**: If automated safety classifiers detect suspicious activity that requires further investigation into whether a customer has violated our policies, then Google may log customer prompts solely for the purpose of examining whether a violation of the AUP or Prohibited Use Policy has occurred. This data won't be used to train or fine-tune any AI/ML models. This data is stored securely for up to 30 days in the same region or multi-region selected by the customer for their project and adheres to Google Cloud assurances, such as Data Residency, Access Transparency and VPC Service Controls. Customers also have the option to request an opt-out from abuse logging (see below).\n- **Action**: Authorized Google employees may assess the flagged prompts and may reach out to the customer for clarification. Failure to address the behavior---or recurring or severe abuse---may result in suspension or termination of the customer's access to Vertex AI or Google Cloud services.\n- **Services in scope**: Vertex AI API, when used with Google's large language models.\n- **Customers in scope** : Only customers whose use of Google Cloud is governed by the [Google Cloud Platform Terms of Service](/terms) and who don't have an [invoiced (offline) Cloud Billing account](/billing/docs/concepts#billing_account_types) are subject to prompt logging for abuse monitoring.\n- **Customer opt-out** : Customers may request for an exception by filling out this [form](https://forms.gle/mtjKKas8a82grYN6A). If approved, Google won't store any prompts associated with the approved Google Cloud account.\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]