악용 모니터링

Google Cloud Platform 서비스 약관의 4.3 '생성형 AI 안전 및 악용' 섹션에 설명된 대로 Google은 고객에게 생성형 AI 서비스를 제공하는 과정에서 다음 절차에 따라 허용되는 사용 정책금지된 사용 정책의 잠재적 악용 및 위반을 감지합니다.

  • 자동 감지: Google은 자동화된 안전 분류기를 사용하여 잠재적인 악용 및 위반을 감지합니다. 안전 분류기가 작동하는 방식에 관한 기술적 세부정보는 안전 필터 구성을 참고하세요.
  • 메시지 로깅: 자동 안전 분류기가 고객이 Google 정책을 위반했는지 추가 조사가 필요한 의심스러운 활동을 감지하면 Google은 AUP 또는 금지된 사용 정책 위반이 발생했는지 확인하는 목적으로만 고객 메시지를 로깅할 수 있습니다. 이 데이터는 AI/ML 모델을 학습하거나 미세 조정하는 데 사용되지 않습니다. 이 데이터는 고객이 프로젝트에 대해 선택한 것과 동일한 리전 또는 멀티 리전에 최대 30일 동안 안전하게 저장되며 데이터 상주, 액세스 투명성, VPC 서비스 제어와 같은 Google Cloud 보증을 준수합니다. 고객은 악용 로깅을 선택 해제하도록 요청할 수도 있습니다 (아래 참고).
  • 조치: 승인된 Google 직원이 신고된 메시지를 평가하고 고객에게 연락하여 명확히 할 수 있습니다. 이러한 행위를 해결하지 못하거나 반복적이거나 심각한 악용이 발생하면 고객의 Vertex AI 또는 Google Cloud 서비스 액세스가 정지되거나 해지될 수 있습니다.
  • 지원 범위 내 서비스: Google의 대규모 언어 모델과 함께 사용할 때의 Vertex AI API
  • 지원 범위 내 고객: Google Cloud 사용이 Google Cloud Platform 서비스 약관에 의거하며 인보이스 발행 Cloud Billing 계정이 없는 고객만 악용 모니터링을 위한 즉시 로깅 대상입니다.
  • 고객 선택 해제: 고객은 이 양식을 작성하여 예외를 요청할 수 있습니다. 승인되면 Google은 승인된 Google Cloud 계정과 연결된 메시지를 저장하지 않습니다.

다음 단계