AI 幻覺是指 AI 模型生成的錯誤或誤導性結果。這類錯誤可能由許多因素造成,包括訓練資料不足、模型的假設有誤,或是用來訓練模型的資料存在偏誤。對用來制定重要決策 (例如醫療診斷或金融交易) 的 AI 系統而言,AI 幻覺可能是一大問題。
新客戶最多可獲得價值 $300 美元的免費抵免額,盡情體驗 Vertex AI 和其他 Google Cloud 產品。
AI 模型以資料訓練而成,這類模型會找出資料中的模式,進而學會如何進行預測。不過,預測的準確度通常取決於訓練資料的品質和完整性。如果訓練資料不完整、含有偏誤或瑕疵,AI 模型可能會學到不正確的模式,導致預測結果不準確或產生幻覺。
舉例來說,以醫療影像資料集訓練而成的 AI 模型,可能會學會辨識癌細胞。不過,如果資料集內沒有任何健康組織的圖片,AI 模型可能會誤以為健康組織就是癌細胞。
訓練資料的缺陷,只是 AI 出現幻覺的其中一種原因,另一個可能的原因是缺乏適當的依據。AI 模型可能難以準確理解真實世界的知識、物理性質或事實資訊。當模型沒有這類資料做為基準,便可能會輸出看似合理,但實際上違反事實、無關或毫無意義的內容,甚至可能會捏造連結,連往不存在的網頁。
舉例來說,某個 AI 模型原先設計用來統整新聞報導,但生成的內容中卻出現原始文章未報導的細節,甚至是憑空捏造資訊。
AI 模型開發人員務必瞭解潛在幻覺的成因。如要盡可能降低 AI 幻覺的風險,確保模型的準確性和可靠性,開發人員應審慎評估訓練資料的品質與完整性,並提供模型合適的資料來源做為基準。
AI 幻覺的形式有很多種。以下是一些常見的例子:
訓練 AI 模型時,請務必限制模型可預測的可能結果數量。只要使用稱為「正則化」的技術即可。正則化會懲罰模型做出過於極端的預測。這有助於防止模型過度配適訓練資料,並做出不正確的預測。
訓練 AI 模型時,請務必使用與模型將執行的任務相關的資料。舉例來說,如要訓練 AI 模型識別癌症,應使用醫療影像的資料集。使用與任務無關的資料可能會導致 AI 模型產生不正確的預測。
訓練 AI 模型時,建議您建立範本供模型遵循。這個範本可協助引導模型進行預測。舉例來說,如果您訓練 AI 模型來撰寫文字,您可以建立包含下列元素的範本:
使用 AI 模型時,請務必告訴模型您想要和不想要的事物。這可以透過向模型提供意見回饋來達成。舉例來說,如果要使用 AI 模型產生文字,可以透過向模型說出您喜歡和不喜歡的文字來提供意見回饋。這將幫助模型瞭解你想要的內容。
瞭解如何使用 Google Cloud 避免產生 AI 幻覺: