生成 AI とデータ ガバナンス

Google は、AI / ML Privacy Commitment を業界で最初に発表した企業です。この取り組みは、お客様がクラウドに保存されている自社のデータについてトップレベルのセキュリティとコントロールを得られるべきだという Google の信念を示しています。この取り組みは、Google Cloud の生成 AI プロダクトにも適用されます。Google は、Google Cloud がプロダクト開発で使用するデータのレビューなど、堅牢なデータ ガバナンスの手法を通じて、チームが取り組みを遵守できるように支援しています。Google がデータを処理する方法に関する詳細は、Cloud のデータ処理に関する追加条項(CDPA)でもご確認いただけます。

定義

用語 説明
基盤モデル 大量のデータでトレーニングされ、幅広いタスクに使用できる大規模な ML モデル。
アダプタモデル アダプタレイヤまたはアダプタ ウェイトとも呼ばれます。専門的なタスクのパフォーマンスを改善するために、基盤モデルと連携して動作する ML モデルです。
顧客データ 定義については、Google Cloud Platform 利用規約をご覧ください。
トレーニング データを使用して ML モデルをトレーニングするプロセス。
予測 推論とも呼ばれます。ML モデルで入力を処理して出力を生成することを意味します。
安全性分類器 予測プロセス中に、暴力の可能性があるコンテンツなど、特定のカテゴリのコンテンツを識別するために使用されます。

基盤モデルのトレーニング

デフォルトでは、Google Cloud は基盤モデルのトレーニングに顧客データを使用しません。お客様は Google Cloud の基盤モデルを使用できますが、その際、お客様のプロンプト、レスポンス、およびアダプタモデルのトレーニング データは、基盤モデルのトレーニングに使用されません。

アダプタモデルのトレーニング

Vertex AI には、お客様がアダプタモデルをトレーニングできるサービスが用意されています。アダプタモデルのトレーニング データは顧客データであり、保存されません。また、Google Cloud の基盤モデルの改善にも顧客データは使用されません。アダプタモデルは、アダプタモデルをトレーニングしたお客様のみが使用できます。Google は、アダプタモデルが既存の Google の知的財産を使用する範囲を除き、アダプタモデルの所有権を主張しません。デフォルトでは、顧客データは暗号化された形式で保存され、転送中も暗号化されます。また、お客様は、顧客管理の暗号鍵(CMEK)を使用してアダプタモデルの暗号化を制御し、いつでもアダプタモデルを削除できます。

予測

予測中に基盤モデル、アダプタモデル、安全性分類器によって処理される入力と出力は、顧客データです。お客様が明示的に許可(入力と出力の両方をキャッシュに保存することを許可)していない場合、顧客データが保存されることはありません。

予測の際、お客様の出力を生成するため、あるいは基盤モデルをトレーニングするために、顧客データがログに記録されることはありません。デフォルトでは、お客様からの以降のプロンプトへのレスポンスを迅速化するために、Gemini モデルに対するお客様の入力と出力がキャッシュに保存されます。コンテンツはキャッシュに最長 24 時間保存されます。キャッシュに保存されたデータには、プロジェクト レベルのプライバシーが適用されます。API を使用して Google Cloud プロジェクトのキャッシュ ステータスを取得する方法、キャッシュを無効にする方法、キャッシュを再度有効にする方法については、キャッシュを有効または無効にする方法をご覧ください。キャッシュを無効にすると、レイテンシが長くなる可能性があります。

Trusted Tester プログラムからオプトアウトする

Trusted Tester プログラムの利用規約の一環として、一般提供前の AI / ML サービスの改善を目的としてお客様のデータの使用を Google に許可していた場合は、Trusted Tester プログラム - オプトアウト リクエスト フォームを使用してオプトアウトできます。

次のステップ