不正行為の監視

Google は、生成 AI サービスをお客様に提供する一環として、次のプロセスにより、利用規約使用禁止に関するポリシーに対する潜在的な不正使用と違反を検出します。

  • 自動検出: Google は自動安全分類システムを使用して、潜在的な不正行為や違反を検出します。安全性分類システムの仕組みの技術的な詳細については、安全性フィルタを構成するをご覧ください。
  • プロンプト ロギング: 自動安全分類システムが、お客様が Google のポリシーに違反しているかどうか詳細な調査が必要な不審なアクティビティを検出した場合、Google は、AUP または禁止されている使用に関するポリシーに違反しているかどうかを調査する目的でのみ、お客様のプロンプトをログに記録することがあります。このデータは、AI / ML モデルのトレーニングやファインチューニングに使用されることはありません。このデータは、プロジェクト用にお客様が選択したリージョンまたはマルチリージョンに最大 30 日間安全に保存され、データ所在地、アクセスの透明性、VPC Service Controls などの Google Cloud の保証に準拠しています。お客様は、不正使用のロギングをオプトアウトすることもできます(下記を参照)。
  • 対応: フラグが立てられたメッセージは、Google の認定社員が評価し、お客様に確認を求める場合があります。この行為に対処しなかった場合、または不正行為が繰り返された場合や悪質な場合は、Vertex AI または Google Cloud サービスへのお客様のアクセスが停止または解除される可能性があります。
  • 対象サービス: Vertex AI API(Google の大規模言語モデルと組み合わせて使用する場合)。
  • 対象となるお客様: 不正使用モニタリングのプロンプト ロギングが適用されるのは、Google Cloud の使用が Google Cloud Platform 利用規約に準拠しており、請求対象の Cloud 請求先アカウントを持たないお客様のみです。
  • お客様によるオプトアウト: お客様は、こちらのフォームに記入してオプトアウトをリクエストできます。承認された場合、承認された Google Cloud アカウントに関連付けられたプロンプトは保存されません。

次のステップ