次のデータストアのエージェント設定を使用できます。
グラウンディング
接続されているデータストアのコンテンツから生成されたレスポンスごとに信頼度レベルが計算されます。これは、レスポンス内のすべての情報がデータストアの情報でサポートされていることの信頼度を測定します。最も低い信頼度レベルを選択すると、エージェントはそのレベルよりも低いレスポンスを返しません。
信頼度レベルには、非常に低い、低、中、高、非常に高い 5 つのレベルがあります。
グラウンディング ヒューリスティック フィルタを適用することもできます。 有効にすると、一般的なハルシネーションに基づいた不正確な可能性があるコンテンツなどのレスポンスは抑制されます。
データストア プロンプト
オプションとして、エージェントに関する追加情報を追加して、データストアのコンテンツから生成される回答の品質を改善し、お客様のブランドにふさわしいものにすることができます。
- エージェント名 - エージェント自体の名前です。未設定の場合は、デフォルト値の AI アシスタントが使用されます。
- Agent のアイデンティティ - エージェント ペルソナが何であるか。未設定の場合は、デフォルト値の AI アシスタントが使用されます。
- 会社名: 会社名を設定します。これは、エージェントの作成フローの一部としてすでに設定されているはずですが、必要に応じて調整できます。生成される回答の品質が低下しないよう、このフィールドは、正しく設定することをおすすめします(特に、空白のままにしておかないこと)。
- 会社の説明: 会社が何をしているか、何を提供しているかについての簡単な説明です。
- エージェントのスコープ - エージェントを使用することを想定している場所です。未設定の場合は、デフォルト値の会社のウェブサイトが使用されます。
このセクションの一部またはすべてに入力したら、右側の [プロンプト] の下で、これらの設定から派生した短いパラグラフを調べることができます。これは回答生成の一部として使われます。
データストア モデルの選択と要約プロンプト
ユーザーのクエリが処理されると、エージェントは適切なソースを見つけるためにデータストアを検索します。次に、エージェントはユーザークエリと検出されたソースを LLM に送信し、LLM が要約を行います。
要約に使用するモデルを選択できます。必要に応じて、独自のプロンプトを指定することもできます。
生成モデルを選択する
要約生成リクエストに対してデータストア エージェントで使用される生成モデルを選択できます。次の表に、使用可能なオプションを示します。
モデル ID | 言語のサポート |
---|---|
デフォルト | これは現在推奨されている構成ですが、今後変更される可能性があります。このオプションを使用すると、エージェントの動作が変化する可能性があります(改善される可能性が高い)。エージェントの動作の整合性を高めたい場合は、特定のモデルを選択します。 |
text-bison@002 | すべてのサポートされている言語でご利用いただけます。 |
gemini-1.0-pro-001 | すべてのサポートされている言語でご利用いただけます。 |
gemini-1.5-flash-001 | すべてのサポートされている言語でご利用いただけます。 |
要約プロンプトをカスタマイズする
要約 LLM 呼び出しのために独自のプロンプトを指定できます。 プロンプトは、事前定義されたプレースホルダを含むテキスト テンプレートです。プレースホルダは実行時に適切な値に置き換えられ、最終的なテキストが LLM に送信されます。
プレースホルダは次のとおりです。
$original-query
: ユーザーのクエリテキスト。$rewritten-query
: Dialogflow は、書き換えモジュールを使用して、元のユーザークエリをより正確な形式に書き換えます。$sources
: Dialogflow は、エンタープライズ検索を使用して、ユーザーのクエリに基づいてソースを検索します。検出されたソースは、特定の形式でレンダリングされます。[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: クエリを送信したユーザーに関する情報は、次の形式でレンダリングされます。The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: 会話の履歴は次の形式でレンダリングされます。Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}
:$conversation
プレースホルダのパラメータ化されたバージョン。エンドユーザー接頭辞(USER
)、エージェント接頭辞(AI
)、以前のターンをいくつ含めるか(TURNS
)をカスタマイズできます。すべてのプレースホルダ パラメータ値を指定する必要があります。例:
${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}
。会話履歴は次のようにレンダリングされます。Human says: user's first query Agent says: answer to user's first query
カスタム プロンプトで、答えを提供できない場合に「NOT_ENOUGH_INFORMATION」を返すように LLM に指示する必要があります。この場合、エージェントは一致なしイベントを呼び出します。
次に例を示します。
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
データストアのフォールバック
このセクションには次の設定があります。
- フォールバック リンク: エージェントが回答を生成できなかった場合に、最も適切なリンクを表示します。
- 生成 AI を有効にする: 結果の生成時にデータストアが生成 AI を使用できるようにします。