자동 감지: Google은 자동화된 안전 분류기를 사용하여 잠재적인 악용과 위반을 감지합니다. 안전 분류기 작동 방식에 대한 기술적 세부정보는 안전 필터 구성을 참조하세요.
프롬프트 로깅: 자동 안전 분류기에서 고객이 Google 정책을 위반했는지 여부를 추가 조사해야 하는 의심스러운 활동을 감지하면 Google은 AUP 또는 금지된 사용 정책 위반 발생 여부를 검사하기 위한 목적으로만 고객 프롬프트를 로깅할 수 있습니다. 이 데이터는 AI/ML 모델을 학습하거나 미세 조정하는 데 사용되지 않습니다. 이 데이터는 고객이 프로젝트에 선택한 리전과 동일한 리전이나 멀티 리전에 최대 30일 동안 안전하게 저장되며 데이터 상주, 액세스 투명성, VPC 서비스 제어와 같은 Google Cloud 보증을 준수합니다. 고객은 악용 로깅을 선택 해제하도록 요청할 수도 있습니다(아래 참조).
조치: 승인된 Google 직원이 신고된 프롬프트를 평가하고 명확하게 하기 위해 고객에게 연락할 수 있습니다. 이러한 행위 또는 반복적이거나 심각한 악용을 해결하지 못하면 Vertex AI 또는 Google Cloud 서비스에 대한 고객 액세스가 정지되거나 해지될 수 있습니다.
지원 범위 내 서비스: Vertex AI API(Google의 대규모 언어 모델과 함께 사용한 경우)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Abuse monitoring\n\nAs outlined in Section 4.3 \"Generative AI Safety and Abuse\" of [Google Cloud Platform Terms of Service](/terms), Google uses the following process to detect potential abuse and violations of its\n[Acceptable Use Policy](/terms/aup) and\n[Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy) as part of providing Generative AI Services to customers.\n\n- **Automated detection** : Google uses automated safety classifiers to detect potential abuse and violations. For technical details on how safety classifiers work, see [Configure safety filters](/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters).\n- **Prompt logging**: If automated safety classifiers detect suspicious activity that requires further investigation into whether a customer has violated our policies, then Google may log customer prompts solely for the purpose of examining whether a violation of the AUP or Prohibited Use Policy has occurred. This data won't be used to train or fine-tune any AI/ML models. This data is stored securely for up to 30 days in the same region or multi-region selected by the customer for their project and adheres to Google Cloud assurances, such as Data Residency, Access Transparency and VPC Service Controls. Customers also have the option to request an opt-out from abuse logging (see below).\n- **Action**: Authorized Google employees may assess the flagged prompts and may reach out to the customer for clarification. Failure to address the behavior---or recurring or severe abuse---may result in suspension or termination of the customer's access to Vertex AI or Google Cloud services.\n- **Services in scope**: Vertex AI API, when used with Google's large language models.\n- **Customers in scope** : Only customers whose use of Google Cloud is governed by the [Google Cloud Platform Terms of Service](/terms) and who don't have an [invoiced (offline) Cloud Billing account](/billing/docs/concepts#billing_account_types) are subject to prompt logging for abuse monitoring.\n- **Customer opt-out** : Customers may request for an exception by filling out this [form](https://forms.gle/mtjKKas8a82grYN6A). If approved, Google won't store any prompts associated with the approved Google Cloud account.\n\nWhat's next\n-----------\n\n- Learn about [Responsible AI](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]