Palo Alto Networks、エージェント設計によりカスタマー インテリジェンスに関するドキュメントの作成を自動化
Spandan Mishra
Head of AI and Data Science, Palo Alto Networks
Pavan Madhira
Cloud Data Architect, Palo Alto Networks
※この投稿は米国時間 2026 年 1 月 15 日に、Google Cloud blog に投稿されたものの抄訳です。
Palo Alto Networks のような世界規模の大手サイバーセキュリティ企業にとって、各顧客を包括的に理解することは成功に不可欠です。Palo Alto Networks では、プリセールス チームが関与するすべてのエンゲージメントの包括的な情報が社内の記録文書(DOR)に集約されます。これは、顧客に関する標準化された全体像をセールスチームとサポートチームに提供する重要なアセットとなります。
課題: 手動による時間のかかるプロセス
従来、DOR の作成は手動で行われ、高度なスキルを持つ従業員が多大な労力を割いていました。
作成には以下のような作業が必要でした。
-
Salesforce からデータを収集する。
-
複数のシステムに分散された広範な社内ナレッジベースを検索する。
-
入手した情報を構造化されたドキュメントに統合する。
このプロセスには数日かかることもあり、案件の獲得と成約を遅らせると同時に、本来なら顧客向けの戦略的な業務に専念できるはずの専門家の貴重な時間を奪っていました。この非効率性を解決するため、Palo Alto Networks は Google Cloud 上に構築された高度な AI エージェントを使用して、ワークフロー全体の自動化を目指しました。
エージェント主導の自動化されたワークフロー
Palo Alto Networks は、Google のオープンソースの Agent Development Kit(ADK)を使用して AI エージェントを開発し、DOR を自律的に生成できるようにしました。DOR の作成に必要な質問には、Vertex AI RAG Engine、Vertex AI Discovery Engine Search(Google のエンタープライズ検索プラットフォーム)などの GCP リソースを活用して回答します。エージェントは、ビジネス クリティカルなタスクに必要なスケーラビリティと信頼性、そしてすぐに使用できるセッションとメモリの処理機能を備えたフルマネージド プラットフォームの Vertex AI Agent Engine 上にデプロイされています。
デプロイ アーキテクチャ
このシステムのアーキテクチャは、次の中核要素で構成されています。
-
2 つの AI Agent Engine エンドポイント: Vertex AI Agent Engine にデプロイされたこれらのエージェントは、API エンドポイントとして機能します。分散型アプローチを実現するため、Agent Engine のマネージド スケーラビリティを活用して、Salesforce ポータルからの POST リクエストを処理して結果を返します。
-
ウェブサーバー(GKE 上の FastAPI): FastAPI で構築され、Google Kubernetes Engine(GKE)でホストされるこのウェブサーバーがシステムをオーケストレーションします。Agent Engine エンドポイントへのリクエストを開始し、そのレスポンスを検証して、処理されたデータを保存します。
-
Vertex AI Rag Engine: サービス データストアとして機能し、2 つの AI エージェントに、Google Cloud Storage(GCS)にアップロードされたドキュメントとログへのアクセスを提供します。
自動プロセスの各ステップ
自動ワークフローのプロセスは、中央のウェブサーバーによってオーケストレートされる 7 つのステップで構成され、Salesforce、Google Cloud AI サービス、内部データソースをシームレスに統合します。
-
Salesforce からの開始: プロセスは、Salesforce 内で特定の顧客アカウントのリクエストがトリガーされたときに開始されます。このリクエストは、Google Kubernetes Engine(GKE)でホストされている FastAPI ウェブサーバーに送信されます。
-
メタデータの取得と質問の準備: ウェブサーバーはリクエストを受け取り、Salesforce から関連する顧客メタデータを取得し、包括的な顧客プロファイルを作成する目的で設計された 140 以上の標準的な質問からなる事前定義リストを準備します。
-
効率性を高める並列処理: AI エージェントのスケーリングを確保し、速度を最適化するために、ウェブサーバーは質問を 5 つのバッチに分けて Vertex AI Agent Engine エンドポイントに送信します。このマルチスレッド方式により、Agent Engine はマネージド自動スケーリングの特性を活用して水平方向にスケーリングし、複数の質問を同時に処理することができます。
-
検索拡張生成(RAG)と Vertex Discovery Engine: 各質問は、関連するコンテキストを拡充させるために強化、明確化されます。これは、Gemini 2.5 Flash を使用した前処理により実現されます。その後、2 つの異なるエージェントに送信され、各エージェントがそれぞれのナレッジベースをクエリします。このサービスは RAG エンジンとして機能します。概要説明の一部としてアップロードされた社内のドキュメントやログの膨大なコーパスを検索し、最も関連性の高い情報スニペットのみを見つけて返すことで、エージェントの回答は事実に基づいた、会社が承認したデータにグラウンディングされたものになります。
-
LLM による回答の合成: Vertex AI Search により取得されたデータ スニペットは Gemini モデルに渡され、Gemini は情報を合成して高品質で一貫性のある回答を生成します。各エージェントは質問に独自に回答し、それぞれの回答に関連性スコアを割り当てます。この関連性スコアにより、回答内の主張のうち事実に基づいてグラウンディングされている部分の割合を測定します。システムは次に、関連性スコアに基づいてこれらの回答を調整し、最適な回答を選択して確定的な真実として保存した後、次の質問に進みます。さらに、検証ステップも実行されます。このステップでは、最終回答における主張の根拠性を評価し、最終回答を低、中、高の信頼度に分類して、エンドユーザーが最終的な判断を下せるようにします。
-
ステートフル オーケストレーション: FastAPI ウェブサーバーがオペレーション全体を管理し、結果を保存して、実行中のプロセスの状態を維持します。どの質問が回答済みかを追跡し、最終的なドキュメントを統合します。
- Salesforce への非同期ハンドオフ: すべての質問に回答すると、ウェブサーバーは完了した DOR を Cloud Pub/Sub トピックにパブリッシュします。これにより、信頼性の高い非同期ハンドオフが実現します。別のサービスがこのトピックのメッセージを使用して、最終的なドキュメントを Salesforce の適切なレコードに書き戻すことでワークフローが完了します。


技術スタック
このソリューションは、Google Cloud のマネージド AI サービスとオープンソース フレームワークを効果的に組み合わせています。
-
Agent Development Kit(ADK): エージェントの複雑なロジックを定義するために使用されるオープンソースの Python フレームワーク。マルチステップ オーケストレーション、状態管理、さまざまなサービスとのインテグレーションなどを備えています。
-
Vertex AI Agent Engine: ADK ベースのエージェントをホストして実行するフルマネージドのサーバーレス環境。スケーリング、セキュリティ、運用上のオーバーヘッドを処理します。
-
Vertex AI RAG Engine: コンテキストに応じてグラウンディングされた回答を生成します。このエンジンは、Vertex AI Search を検索バックエンドとして使用するように構成されており、社内ドキュメントから関連情報を効率的に抽出して言語モデルに提供します。
-
Gemini モデル: 取得したデータから、高品質で人間が読める回答を生成するために必要な、高度な推論機能と言語合成機能を提供します。
-
Cloud Pub/Sub: エージェントを最終的な書き戻しプロセスから切り離す、耐久性のあるメッセージ キューとして機能し、アーキテクチャ全体の復元力と信頼性を向上させます。
-
Cloud Storage: DOR の質問に回答するために必要な、顧客の非構造化ドキュメントのストレージとして機能します。
課題の解決
AI エージェントによる DOR 作成の自動化への道のりは決して平坦ではなく、いくつかの重要な課題に直面しました。しかし、それらを解決できたことで、類似のエージェント型 AI ソリューションのアーキテクチャとデプロイに関する以下の重要な考慮事項が明らかになりました。
1. エージェントのコンテキスト管理とスケーリング:
当初の設計では、140 以上のすべての質問を一度にエージェントに渡し、エージェントが反復処理を行い、進捗を管理することを想定していました。しかし、このアプローチは深刻なメモリ過負荷と「メモリ不足」(OOM)エラーを引き起こしました。エージェントの内部コンテキスト ウィンドウは、各ロジック チェックや回答の蓄積に伴って増大し、すぐに管理不能に陥ってしまいました。
解決策として、状態管理の役割をオーケストレーターとして機能する FastAPI サーバーに移行することにしました。エージェントは、すべての質問を前もって受け取るのではなく、質問を 1 つずつ処理するように設計されました。FastAPI サーバーは、全体的なコンテキストと蓄積されたドキュメントを保持し、個々の質問をエージェントに渡して、エージェントの回答を保存しています。このようにコンテキストを区分化することで、エージェントの安定性が大幅に向上し、より効率的なスケーリングが可能になりました。
2. デプロイ アーキテクチャとリソース管理:
もう一つの課題は、バックエンド オーケストレーター(FastAPI サーバー)と Vertex AI Agent Engine 上のエージェントの両方に最適なデプロイ アーキテクチャを決定することでした。初期テストで、両コンポーネントを単一の Google Kubernetes Engine(GKE)クラスタ内にデプロイしたところ、主にエージェントのコンテキストとメモリの需要が原因で、Pod が頻繁にクラッシュしました。そのため、FastAPI サーバーをエージェントのランタイムから切り離すことにしました。FastAPI サーバーは、スタンドアロン サービスとして GKE にデプロイされ、Vertex AI Agent Engine に個別にデプロイされたエージェントを呼び出します。この分離により、エージェントに Vertex AI Agent Engine のフルマネージドでスケーラブルな環境を活用させながら、柔軟なカスタム バックエンド オーケストレーターを実現することができます。
3. LLM 呼び出しのパフォーマンスの最適化:
Gemini モデルを使用して回答を生成する性質上、140 以上の質問それぞれに対して複数の API 呼び出しが必要となるため、当初は DOR あたり約 2.5 時間という長い実行時間が発生していました。これらの呼び出しは I/O の制約を受けることがわかったため、並列化することでプロセスが大幅に最適化されました。FastAPI オーケストレーター内にマルチスレッドを実装することで、複数の Gemini 呼び出しを同時に実行できるようになりました。さらに、Vertex AI Agent Engine の水平スケーリング機能も、この並列実行をサポートしています。このようなアーキテクチャの変更により、全体の処理時間が劇的に短縮され、効率が大幅に向上しました。
ビジネスの成果
この AI エージェントの実装は、Palo Alto Networks に測定可能な重要な成果をもたらしました。
-
効率の向上: 包括的な DOR の作成に必要な時間が大幅に短縮されました。
-
整合性と品質の向上: 140 の質問からなるフレームワークを標準化することで、すべての DOR が均一で高水準の品質と完全性を満たすようになりました。
-
精度の向上: エージェントの回答を信頼できる RAG システムにグラウンディングすることで、人的ミスのリスクを最小限に抑え、最新の社内ドキュメントから情報を取得できるようになりました。
-
人員の戦略的な再配置: このタスクの自動化により、専門知識を持つ従業員が、顧客戦略や直接的なエンゲージメントといった価値の高い作業により多くの時間を割けるようになりました。
-
ドキュメントで不足している情報や、回答が不十分または欠落している部分を把握できるため、プリセールス チームはそれらのトピックに重点を置いて顧客をより深く理解することができます。
このユースケースは、 企業におけるエージェント型 AIの実用的かつ強力な応用例を示しており、オープンソース フレームワークとマネージド クラウド サービスを組み合わせることで、複雑なビジネス課題を解決し、運用効率を向上させる方法がよくわかる事例です。
エージェントとエージェント フレームワークに関するサポートと技術的リーダーシップ、および ADK と Agent Engine に関する深い専門知識を提供してくれた Google 社員の Hugo Selbie 氏(GSD AI インキュベーション チーム)と Casey Justus 氏(プロフェッショナル サービス)に感謝します。
- Palo Alto Networks、AI およびデータ サイエンス責任者 Spandan Mishra 氏
- Palo Alto Networks、クラウド データ アーキテクト Pavan Madhira 氏


