設計提示沒有絕對正確或錯誤的方法,但有一些常見策略可有效影響模型的回覆。嚴格的測試和評估仍是最佳化模型效能的關鍵。
大型語言模型 (LLM) 經過大量文字資料訓練,可學習語言單元之間的模式和關係。只要提供一些文字 (提示),語言模型就能預測後續內容,就像精密的自動完成工具。因此,設計提示時,請考量可能影響模型預測結果的各種因素。
提示工程工作流程
提示工程是以測試為依據的疊代程序,可增強模型效能。建立提示時,請務必清楚定義每個提示的目標和預期結果,並有系統地測試提示,找出需要改進的地方。
下圖顯示提示工程工作流程:

如何撰寫有效提示
提示的有效性最終取決於兩個方面:內容和結構。
- 內容:
模型需要與工作相關的所有資訊,才能完成工作。這類資訊可能涵蓋指令、範例和上下文資訊等。詳情請參閱「提示的組成要素」。
- 結構:
即使提示中已提供所有必要資訊,提供資訊結構仍有助於模型剖析資訊。排序、標籤和分隔符號的使用方式等因素,都會影響回覆品質。如需提示結構範例,請參閱提示範本範例。
提示的元素
下表列出提示的必要和選用元素:
元件 | 說明 | 範例 |
---|---|---|
目標 | 您希望模型達成的成果,請提供具體說明並涵蓋所有首要目標。也稱為「使命」或「目標」。 | 你的目標是協助學生解出數學問題,但不能直接提供答案。 |
操作說明 | 如何執行手上工作的逐步指令。也稱為「工作」、「步驟」或「指示」。 |
|
選用元件 | ||
系統指示 | 透過技術或環境指令,控管或改變模型執行一系列工作時的行為。在許多模型 API 中,系統指令會透過專屬參數來指定。 系統指令適用於 Gemini 2.0 Flash 以上版本。 |
您是程式設計專家,專門為前端介面算繪程式碼。當我描述要建構的網站元件時,請傳回建構該元件所需的 HTML 和 CSS,不要提供這段程式碼的說明。並提供一些 UI 設計建議。 |
角色 | 模型要扮演的角色。也稱為「角色」或「願景」。 | 你是一名數學家教,目標是指導學生完成數學作業。 |
限制 | 模型生成回覆時必須遵守的限制,包括可做和不能做的事情。也稱為「安全防護措施」、「界線」或「控制項」。 | 請勿直接提供答案給學生,請給予提示,讓他們知道解決問題的下一步是什麼。如果學生完全沒有頭緒,請給他們解決問題的詳細步驟。 |
語氣 | 回覆時採用的語氣。您也能指定角色來調整回覆風格和語氣。也稱為「風格」、「語氣」或「情緒」。 | 以輕鬆又符合技術專業的態度回覆。 |
背景資訊 | 模型執行手上工作所需的任何參考資訊。 也稱為「背景」、「文件」或「輸入資料」。 | 數學教案的副本。 |
少量樣本範例 | 模型收到提示時該如何回覆的範例。也稱為「範例」。 | input: 我想計算一個體積為一立方公尺的盒子可以裝多少顆高爾夫球。我已將一立方公尺換算為立方公分,並除以高爾夫球的體積 (以立方公分為單位),但系統表示我的答案有誤。output: 高爾夫球是球體,無法以完美效率裝入空間。計算時,請將球體的最高包裝效率納入考量。 |
推論步驟 | 引導模型說明推論過程,模型的推理能力有時能因此而提升。也稱為「思考步驟」。 | 請逐步說明原因。 |
回覆格式 | 您希望回覆使用的格式。舉例來說,您能要求模型輸出回覆時採用 JSON、資料表、Markdown、段落、項目符號清單、關鍵字、電梯簡報等格式。也稱為「結構」、「呈現方式」或「版面配置」。 | 以 Markdown 格式提供回覆。 |
重點回顧 | 在結尾簡要重述提示中的重點,特別是限制和回覆格式。 | 不要直接給答案,而是提供提示。一律採用 Markdown 格式來回覆。 |
保護措施 | 將問題範圍限縮在機器人的任務中。也稱為「安全規則」。 | 不適用 |
視手邊的特定工作而定,您可能會選擇納入或排除部分選用元件。你也可以調整元件順序,並查看這會如何影響回覆。
提示範本範例
以下提示範本顯示結構良好的提示範例:
<OBJECTIVE_AND_PERSONA> You are a [insert a persona, such as a "math teacher" or "automotive expert"]. Your task is to... </OBJECTIVE_AND_PERSONA> <INSTRUCTIONS> To complete the task, you need to follow these steps: 1. 2. ... </INSTRUCTIONS> ------------- Optional Components ------------ <CONSTRAINTS> Dos and don'ts for the following aspects 1. Dos 2. Don'ts </CONSTRAINTS> <CONTEXT> The provided context </CONTEXT> <OUTPUT_FORMAT> The output format must be 1. 2. ... </OUTPUT_FORMAT> <FEW_SHOT_EXAMPLES> Here we provide some examples: 1. Example #1 Input: Thoughts: Output: ... </FEW_SHOT_EXAMPLES> <RECAP> Re-emphasize the key aspects of the prompt, especially the constraints, output format, etc. </RECAP> |
最佳做法
提示設計最佳做法包括:
提示健全度檢查清單
如果提示成效不彰,請使用下列檢查清單找出潛在問題,並提升提示成效。
寫作問題
- 錯別字:檢查定義工作的關鍵字 (例如「總結」sumarize,而非「總結」summarize)、技術用語或實體名稱,因為拼字錯誤可能會導致成效不佳。
- 文法:如果句子難以解讀、包含過長的片段、主詞和動詞不一致,或結構不自然,模型可能無法正確解讀提示。
- 標點符號:檢查逗號、句號、引號和其他分隔符號的使用方式,因為標點符號不正確可能會導致模型誤解提示。
- 使用未定義的術語:避免使用領域專用術語、縮寫或首字母縮略字,除非在提示中明確定義,否則請勿將這些用語視為具有普遍意義。
- 清楚程度:如果您對範圍、具體步驟或隱含假設感到疑惑,提示可能不夠清楚。
- 模稜兩可:避免使用缺乏具體可測量定義的主觀或相對限定詞。請提供客觀限制 (例如「撰寫 3 句以下的摘要」,而非「撰寫簡短摘要」)。
- 缺少重要資訊:如果工作需要特定文件、公司政策、使用者記錄或資料集等知識,請務必在提示中明確加入這些資訊。
- 字詞選擇不當:檢查提示是否使用過於複雜、含糊或冗長的措辭,這可能會讓模型感到困惑。
- 二次審查:如果模型成效持續不佳,請請其他人審查提示。
操作說明和範例有問題
- 明顯的操縱行為:從提示中移除核心工作以外的語言,這些語言會嘗試使用情緒訴求、奉承或人為壓力來影響效能。雖然第一代基礎模型在某些情況下,會因「如果沒答對,就會發生非常糟糕的事」等指令而有所改善,但基礎模型效能不會再提升,而且在許多情況下會變差。
- 衝突的指令和範例:稽核提示,檢查指令之間或指令與範例之間是否有邏輯矛盾或不符之處。
- 多餘的指令和範例:檢查提示和範例,看看是否以略有不同的方式重複說明完全相同的指令或概念,但未新增任何資訊或細微差異。
- 無關的說明和範例:檢查所有說明和範例是否與核心工作相關。如果移除任何指令或範例,不會影響模型執行核心工作的能力,則這些指令或範例可能不相關。
- 使用「少量樣本」範例:如果工作複雜、需要特定格式或語氣細膩,請務必提供具體的說明範例,顯示範例輸入內容和對應的輸出內容。
- 未指定輸出格式:請勿讓模型猜測輸出內容的結構,而是使用明確的指令指定格式,並在少樣本範例中顯示輸出結構。
- 缺少角色定義:如果要求模型扮演特定角色,請務必在系統指令中定義該角色。
提示和系統設計問題
- 工作規格不足:請確保提示的指令提供明確路徑,可處理極端案例和非預期輸入內容,並提供處理遺漏資料的指令,而不是假設插入的資料一律存在且格式正確。
- 超出模型能力範圍的工作:請避免使用提示要求模型執行已知有基本限制的工作。
- 工作過多:如果提示要求模型在單一流程中執行多項不同的認知動作 (例如 1. 摘要,2. 擷取實體,3. 翻譯,以及 4. 撰寫電子郵件草稿),這時可能代表你嘗試完成太多工作。將要求拆成多項獨立提示。
- 非標準資料格式:如果模型輸出內容必須可供機器解讀或採用特定格式,請使用廣為人知的標準格式,例如 JSON、XML、Markdown 或 YAML,這些格式可由常見程式庫剖析。如果您的用途需要非標準格式,請考慮要求模型輸出為常見格式,然後使用程式碼轉換輸出內容。
- 思維鏈 (CoT) 順序錯誤:請勿提供範例,顯示模型在完成逐步推論前,就生成最終的結構化答案。
- 內部參照衝突:避免編寫提示時使用非線性邏輯或條件,導致模型必須從提示中的多個不同位置,拼湊出零碎的指令。
- 提示注入風險:檢查是否有明確的防護措施,可保護插入提示中的不受信任使用者輸入內容,因為這可能造成重大安全風險。
後續步驟
- 在提示庫中探索提示範例。
- 瞭解如何使用 Vertex AI 提示最佳化工具 (搶先版),將提示最佳化,以便搭配 Google 模型使用。
- 瞭解負責任的 AI 最佳做法和 Vertex AI 的安全篩選器。