不正行為のモニタリング

Google Cloud Platform 利用規約の 4.3「生成 AI の安全性と不正使用」に記載されているように、Google は、生成 AI サービスをお客様に提供するために、次のプロセスを使用して、利用規定使用禁止に関するポリシーの潜在的な不正使用と違反を検出します。

  • 自動検出: Google は自動安全分類システムを使用して、潜在的な不正行為や違反を検出します。安全性分類システムの仕組みについて詳しくは、安全フィルタを構成するをご覧ください。
  • プロンプトのロギング: 自動安全分類システムが、お客様が Google のポリシーに違反しているかどうかの詳細な調査が必要な不審なアクティビティを検出した場合は、利用規約または禁止されている使用方法に関するポリシーに違反しているかどうかを調査する目的でのみ、お客様のプロンプトをログに記録することがあります。このデータは、AI/ML モデルのトレーニングや微調整に使用されることはありません。このデータは、プロジェクト用にお客様が選択したリージョンまたはマルチリージョンに最大 30 日間安全に保存され、データ所在地、アクセスの透明性、VPC Service Controls などの Google Cloud の保証に準拠しています。お客様は、不正使用のロギングをオプトアウトすることもできます(下記を参照)。
  • 対応: 報告されたメッセージは、Google の認定担当者が評価し、お客様に確認を求める場合があります。この行為に対処しなかった場合、または不正行為が繰り返された場合や悪質な場合は、Vertex AI または Google Cloud サービスへのお客様のアクセスが一時停止または停止される可能性があります。
  • 対象サービス: Vertex AI API(Google の大規模言語モデルと組み合わせて使用する場合)。
  • 対象となるお客様: 不正使用モニタリングのプロンプト ロギングが適用されるのは、Google Cloud の使用が Google Cloud Platform 利用規約に準拠しており、請求対象の Cloud 請求先アカウントを持たないお客様のみです。
  • お客様によるオプトアウト: お客様は、こちらのフォームに記入して例外をリクエストできます。承認されると、承認された Google Cloud アカウントに関連付けられたプロンプトは保存されません。

次のステップ