コンテンツに移動
ビジネス インテリジェンス

安心して会話: Looker の会話分析のセキュリティを解説

2025年7月11日
Richard Kuzma

Group Product Manager, Data Agents

Kate Grinevskaja

Product Manager

Try Gemini 2.5

Our most intelligent model is now available on Vertex AI

Try now

※この投稿は米国時間 2025 年 7 月 8 日に、Google Cloud blog に投稿されたものの抄訳です。

ビジネス インテリジェンスは急速な進化を遂げており、AI を活用した、優れたセルフサービス機能と自然言語機能への期待はますます高まっています。Looker の会話分析は、データに内在する豊富な情報を、組織の誰もが活用できるようにするツールです。調べたいデータを選び、同僚に話すように自然な言葉で質問するだけで、Looker のセマンティック レイヤにより、信頼性の高い分析情報と可視化された回答がすぐに得られます。直感的に操作できることで、データ分析の技術的なハードルが下がり、組織全体でデータを活かす文化が自然と育っていきます。

では、その仕組みを簡単にご紹介しましょう。会話分析は、技術的なコアとして、質問の背後にある意図を理解する力を持っています。Gemini モデルによって強化されたこのプロセスは、自然な言葉で入力された質問を解釈し、適切なデータ取得ロジックを生成した上で、結果を図やグラフなど、わかりやすい形で提示します。このプロセスを支えているのが、Looker のセマンティック モデルです。あらかじめ定義されたビジネス指標に基づいて複雑なデータを単純化することで、Gemini の AI の判断を、信頼できる一貫したデータ理解に根拠づけます。

https://storage.googleapis.com/gweb-cloudblog-publish/images/1_haAX1w2.max-2000x2000.png

プライバシーを優先する Gemini

Gemini のような強力な生成 AI モデルの台頭は、イノベーションと効率化の素晴らしい機会をもたらします。しかし、データに対しては、責任ある安全なアプローチを取ることが必要です。AI ツールの利用に際して、まず懸念されるのが、データのプライバシーとセキュリティです。プロンプトやデータはどのように使われるのか?保存されるのか?モデルのトレーニングに利用されるのか?といった疑問が生まれます。

Google Cloud では、Gemini モデルをご利用いただく際、お客様のデータのプライバシーを最優先事項と位置づけています。また、お客様がデータを自ら管理し、安心してご利用いただけるよう、データ ガバナンスの仕組みを設計しています。具体的にご紹介しましょう。

プロンプトと出力は保護されます

Google Cloud は、お客様のプロンプトやお客様の会社のデータでモデルをトレーニングすることはありません。

会話分析は、データクエリの生成、グラフの作成、要約の作成、回答の提示など、お客様のビジネス上の質問に答える目的に限って、お客様のデータを使用します。エージェントのメタデータ(エージェントに対する特別な指示など)は、エージェントの回答の質を向上させる目的で保存されます。これにより、複数のチャット セッションにおいて、同じエージェントを継続的に利用することが可能になります。またチャットの会話も、会話を中断したところから再開できるようにするために保存されます。どちらも IAM で保護されており、許可なく組織外のユーザーと共有されることはありません。

お客様のデータがモデルのトレーニングに使用されることはありません

会話分析は、複数のステップから成るワークフローでデータを処理しています。

  1. エージェントはユーザーの質問を確認し、回答に必要な具体的なコンテキストを特定して、ツールを使用してサンプルデータや列の説明などの有用な文脈情報を取得します。

  2. ビジネス上の文脈とデータ上の文脈、そしてユーザーの質問をもとに、エージェントがデータを取得するためのクエリを生成し、これを実行します。データが返され、結果のデータテーブルが生成されます。

  3. これまでに収集した情報は、図やグラフ、テキストによる説明、またはフォローアップの質問の提案などにも使用されます。このプロセスを通じて、システムはユーザーの質問、データサンプル、クエリ結果を覚えておき、それらをもとに最終的な回答を組み立てることができます。

  4. ユーザーがフォローアップなどの新しい質問をした場合も、エージェントはそれまでの会話の文脈をもとに、ユーザーの新たな意図を把握します。

https://storage.googleapis.com/gweb-cloudblog-publish/images/2_eAwxB1o.max-1900x1900.png

会話分析の信頼性とセキュリティの強化

会話分析を安心してご利用いただけるよう、Google Cloud では包括的なベスト プラクティスに則り運用しています。

  • Looker のセマンティック レイヤを活用: 会話分析は、Looker のセマンティック モデルでグラウンディングされ、AI モデルが信頼性と一貫性をもってビジネス指標を理解し、判断を下せるようにしています。これにより、分析情報の精度が向上するだけでなく、Looker の確立されたガバナンス フレームワークを効果的に活用できます。

  • 安全なデータ接続: 会話分析が接続する BigQuery などの Google Cloud サービスは、独自の堅牢なセキュリティ対策とアクセス制御を備えています。これにより、基盤となるデータが保護されます。

  • データを暗号化: 処理のために Gemini に送信されるデータは、転送中に暗号化され、不正アクセスから保護されます。エージェントのメタデータと会話履歴も暗号化されます。

  • 継続的なモニタリングと改善: Google のチームは、Google Cloud の会話分析と Gemini のパフォーマンス、およびセキュリティを継続的にモニタリングしています。

ロールベースのアクセス制御

さらに、Looker は堅牢なロールベースのアクセス制御(RBAC)フレームワークを提供します。会話分析では、このフレームワークを利用して、ユーザーに応じて扱えるデータをきめ細かく制御できます。Looker ユーザーがデータとのチャットを行う場合、会話分析では、そのユーザーに設定されている Looker の権限が尊重されます。つまり、ユーザーはすでにアクセス権を持っている Looker Explore とのみ会話できるということです。たとえば、ユーザーが 2 つの Looker Explore を閲覧する権限を持っている場合でも、管理者は会話機能を 1 つに制限できます。会話型エージェントが広く活用されるようになった後も、ユーザーが使用できるのはアクセス権が付与されたエージェントのみという形の運用になります。エージェント作成者は、会話分析エージェントの機能を構成することもできます。たとえば、ユーザーがグラフを表示できるようにする一方で、予測などの高度な機能は制限するといった調整が可能です。

安心して挑戦できる環境を

Gemini は、お客様の作成、分析、自動化を支援する、ビジネスの強力なパートナーとなるように、Google の最も高性能な AI モデルを使用して設計されています。Google は、お客様のデータのセキュリティやプライバシーを損なわず、またお客様のプロンプトやデータをトレーニングに使用することなく、機能をご提供することを、重要な方針として取り組んでいます。プロンプト、データ、モデルの出力を保存せず、トレーニングにも使用しないことで、ユーザーはデータのコントロールを維持したまま、生成 AI の力を最大限に引き出すことができます。

会話分析は、これらのセキュリティ原則に従い、Google Cloud の堅牢なインフラを活用することで、安全性と信頼性を備えた、強力で洞察に富むエクスペリエンスを提供します。データによる分析を誰もが安全に活用できるようになることで、組織全体のイノベーションと生産性は飛躍的に向上します。Looker で会話分析を今すぐ有効化し、信頼できるデータ対話を始めましょう。

-プロダクト マネージャー、Richard Kuzma 

-プロダクト マネージャー、Kate Grinevskaja

投稿先