エージェント評価への体系的なアプローチ: 堅牢な品質ゲートの構築
Hugo Selbie
Staff Customer & Partner Solutions Engineer, Google
※この投稿は米国時間 2025 年 11 月 18 日に、Google Cloud blog に投稿されたものの抄訳です。
AI は、単一の回答モデルから、推論、ツールの使用、高度なタスクの完了が可能な複雑なマルチステップ エージェントへと移行しています。機能が向上したということは、これらのシステムを評価する方法も進化させる必要があるということです。一連の意思決定を行うシステムでは、最終的な出力のみに焦点を当てた指標ではもはや不十分です。
主な課題は、エージェントが正しい出力を生成しても、そのプロセスが非効率的または不適切な場合があるということです。これは「サイレント障害」と呼ばれます。たとえば、在庫報告を担当するエージェントであれば、正しい数を提示していても、誤って昨年のレポートを参照していることがあります。この場合、結果は正しいように見えますが、実行プロセスには問題があります。このようにエージェントに問題があった際に、単に「間違っている」または「正しい」と表示されるだけでは、システムのどこで障害が発生したかを判断するために必要な診断情報が得られません。
効果的にデバッグして品質を確保するには、エージェントのアクションの複数の側面を理解する必要があります。
-
軌跡: 結果に至るまでの推論とツール呼び出しのシーケンス。
-
全体的なエージェントとのやり取り - ユーザーとエージェント間の会話全体(チャット エージェントを想定)
-
エージェントが操作されてアクションを実行したかどうか
この記事では、堅牢でカスタマイズされたエージェント評価戦略を構築するための構造化されたフレームワークの概要を説明します。これにより、確信を持ってエージェントを概念実証(POC)から本番環境に移行できるようになります。
成功から始める: エージェントの目的を定義する
効果的な評価戦略は、明確で曖昧さのない成功基準を基盤として構築されます。そこでまず、次の重要な問いから始める必要があります。この特定のエージェントにとっての成功の定義とは何ですか?ここでの成功の定義は、測定可能な指標に直接つながる具体的なものでなければなりません。
最初に成功を定義することで、エージェントが達成すべき明確なベンチマークを確立できます。
目的主導の評価フレームワーク
堅牢な評価には、3 つの柱をカバーする成功基準と、それに関連するテスト可能な指標が必要です。
柱 1: エージェントの成功と品質
ここでは、最終的な出力とユーザー エクスペリエンスに焦点を当て、エージェントのインタラクション全体を評価します。これは、エージェントが本番環境で使用されるのとまったく同じようにテストされる統合テストのようなものだと考えてください。
-
測定対象: 最終結果。
-
指標の例: インタラクションの正確性、タスク完了率、会話の根拠性、会話の一貫性、会話の関連性。
柱 2: プロセスと軌跡の分析
ここでは、エージェントの内部意思決定プロセスに焦点を当てます。これは、複雑で動的な推論を行うエージェントにとって非常に重要です。エージェントの意思決定パスごとに行う一連の単体テストのようなものと考えてください。
-
測定対象: エージェントの推論プロセスとツールの使用状況。
-
主な指標: ツール選択の精度、推論ロジック、効率性。
柱 3: 信頼性と安全性の評価
ここでは、理想的ではない状況下でのエージェントの信頼性と復元力を評価します。これは、エージェントに対する悪意ある入力を回避するためのものです。実際には、エージェントが本番環境で稼働しているときに、予期しない方法でテストされる可能性があるため、エージェントがそのような状況に対処できるという信頼を築くことが重要です。
-
測定対象: 悪条件下での信頼性。
-
主な指標: 堅牢性(エラー処理)、セキュリティ(プロンプト インジェクションへの耐性)、公平性(バイアスの軽減)。
テストを定義する: 評価方法
フレームワークが整備されていれば、選択した指標によって明確に決定されるべき具体的なテストを定義できます。多層的なアプローチがおすすめです。
人間による評価
人間による評価は、評価スイート全体を実際のパフォーマンスとドメインの専門知識に基づいて構築するために不可欠です。このプロセスでは、製品が実際に示している特定の障害モードと、成功基準を満たせない箇所を特定することで、グラウンド トゥルースを確立します。
LLM が判定
人間の専門家が特定の障害モードを特定して文書化したら、LLM を使ってエージェントのパフォーマンスをスコア化する、スケーラブルな自動テストを構築できます。LLM を判定者として活用するプロセスは、複雑で主観的な障害やアクティビティに使用され、エージェントの改善を判断するための迅速かつ再現可能なテストとして使用できます。導入する前には、LLM の判定結果を人間の評価と整合させる必要があります。そのために、LLM の出力を元の手動による人間の出力と比較し、結果のグラウンド トゥルーシングを行います。
コードベースの評価
これは最もコストが低く決定的なテストであり、多くの場合、柱 2 でエージェントの軌跡を観察することで特定されます。出力が JSON 形式であることや、特定の長さの要件を満たしていることの確認など、単純な Python 関数やロジックでチェックできる障害モードに最適です。
高品質な評価データを生成する
堅牢なフレームワークも、実行対象となるデータが良質でなければ意味がありません。数千ものテストケースを手動で作成すると、ボトルネックが生じます。最も堅牢なテストスイートは、複数の手法を組み合わせて、多様で関連性の高い、現実的なデータを大規模に生成します。
-
「対決する LLM」による会話の合成: 2 つ目の LLM をユーザー役として使用することで、多様な複数ターンの会話データを生成して、エージェントを大規模にテストできます。これは、柱 1 の評価に使用するデータセットの作成に最適です。
-
本番環境のデータの使用と匿名化: 匿名化された実際のユーザー インタラクションを使用して、実際の使用パターンとエッジケースを捉えた「ゴールデン データセット」を作成します。
-
人間参加型のキュレーション: 開発者は、ログやトレースから貴重なインタラクティブ セッションを永続的なテストケースとして保存し、有意義な例でテストスイートを継続的に充実させることができます。
ゴールデン データセットは必要ですか?
評価を実行するには、ログやトレースなどの評価データが常に必要です。ただし、必ずしも開始時に事前にラベル付けされたゴールデン データセットが必要になるわけではありません。高度な検証(RAG でエージェントが既知の回答に到達する方法の理解や、回帰の検出など)には、完璧で既知の良好な出力を提供するゴールデン データセットが不可欠ですが、それが障害になるべきではありません。
ゴールデン データセットなしで開始する方法
初期の品質を判断するために、人間による評価と雰囲気に基づく評価指標だけで始めることもできます。これらの初期の主観的な指標とフィードバックは、「LLM が判定」のスコアリングに適応できます。
たとえば、「LLM が判定」でテストされた正確性、簡潔性、安全性などの主要な側面について、初期の人間によるフィードバックを集計し、一連のバイナリスコア(合格 / 不合格)に変換します。「LLM が判定」は、これらのバイナリ指標に基づいてエージェントのインタラクションを自動的にスコアリングし、全体的な成功または失敗を判断します。エージェントの全体的な品質は、カテゴリ別の文字による評価システムで集計してスコアリングできます。たとえば、「A」はすべてのバイナリテストに合格、「B」はバイナリテストの 3 分の 2 に合格、「C」はバイナリテストの 3 分の 1 に合格、といった具合です。
このアプローチにより、実際の失敗と成功をキュレートすることで、ゴールデン データセットを継続的に構築しながら、構造化された品質ゲートをすぐに確立できます。
プロセスを運用化する
一回限りの評価は、スナップショットにすぎません。継続的な改善を推進するには、評価フレームワークをエンジニアリング ライフサイクルに統合する必要があります。評価を運用化することで、自動化された継続的なプロセスに変わります。
評価を CI / CD に統合する
自動化は運用化の中核です。評価スイートは、エージェントへの変更が提案されるたびに自動的に実行される品質ゲートとして機能する必要があります。
-
プロセス: パイプラインは、参照データセットに対して新しいエージェント バージョンを実行し、主要な指標を計算して、スコアを事前定義されたしきい値と比較します。
-
結果: パフォーマンス スコアがしきい値を下回った場合、ビルドは失敗し、品質の低下が本番環境に到達するのを防ぎます。
本番環境のパフォーマンスをモニタリングする
実世界こそが究極のテストです。次の点をモニタリングする必要があります。
-
運用指標: ツール呼び出しのエラー率、API レイテンシ、インタラクションごとのトークン消費量。
-
品質とエンゲージメントの指標: ユーザー フィードバック(高評価 / 低評価など)、会話の長さ、タスク完了率。
-
ドリフト検出: ユーザークエリの種類に大きな変化がないか、パフォーマンスが徐々に低下していないかをモニタリングします。
好循環のフィードバック ループを構築する
最後のステップは、本番環境のデータを評価アセットにフィードバックすることです。これにより、評価スイートは実際の使用状況から学習する生きた存在になります。
-
レビュー: 本番環境のモニタリング データと会話ログを定期的にレビューします。
-
特定: 現在のデータセットには含まれていない、新しいインタラクションや興味深いインタラクション(特に失敗や新しいリクエスト)を分離します。
-
キュレートして追加: 選択したインタラクションを匿名化し、「ゴールデン」の期待される結果を使用してアノテーションを付け、参照データセットに追加します。
この継続的なサイクルにより、エージェントは更新のたびに効果と信頼性を高められます。これらのテストの実行をエクスポートし、ダッシュボード ツールを活用することで、これらのサイクルの結果を追跡および可視化して、エージェントの品質が時間の経過とともにどのように進化しているかを確認できます。
始める
この堅牢な品質ゲートを確立できるよう、生成 AI 評価サービスと ADK ベースの軌跡評価の使用を開始しましょう。
- Google、スタッフ カスタマー&パートナー ソリューション エンジニア Hugo Selbie



