什麼是 AI 幻覺?

AI 幻覺是指 AI 模型生成的錯誤或誤導性結果。這類錯誤可能由許多因素造成,包括訓練資料不足、模型的假設有誤,或是用來訓練模型的資料存在偏誤。對用來制定重要決策 (例如醫療診斷或金融交易) 的 AI 系統而言,AI 幻覺可能是一大問題。

新客戶最多可獲得價值 $300 美元的免費抵免額,盡情體驗 Vertex AI 和其他 Google Cloud 產品。

AI 幻覺是如何發生的?

AI 模型以資料訓練而成,這類模型會找出資料中的模式,進而學會如何進行預測。不過,預測的準確度通常取決於訓練資料的品質和完整性。如果訓練資料不完整、含有偏誤或瑕疵,AI 模型可能會學到不正確的模式,導致預測結果不準確或產生幻覺。

舉例來說,以醫療影像資料集訓練而成的 AI 模型,可能會學會辨識癌細胞。不過,如果資料集內沒有任何健康組織的圖片,AI 模型可能會誤以為健康組織就是癌細胞。

訓練資料的缺陷,只是 AI 出現幻覺的其中一種原因,另一個可能的原因是缺乏適當的依據。AI 模型可能難以準確理解真實世界的知識、物理性質或事實資訊。當模型沒有這類資料做為基準,便可能會輸出看似合理,但實際上違反事實、無關或毫無意義的內容,甚至可能會捏造連結,連往不存在的網頁。

舉例來說,某個 AI 模型原先設計用來統整新聞報導,但生成的內容中卻出現原始文章未報導的細節,甚至是憑空捏造資訊。

AI 模型開發人員務必瞭解潛在幻覺的成因。如要盡可能降低 AI 幻覺的風險,確保模型的準確性和可靠性,開發人員應審慎評估訓練資料的品質與完整性,並提供模型合適的資料來源做為基準。

AI 幻覺範例

AI 幻覺的形式有很多種。以下是一些常見的例子:

  • 預測錯誤:AI 模型可能會預測某個不太可能發生的事件即將發生。舉例來說,用來預測天氣的 AI 模型可能會在天氣預報不會下雨的情況下,預測明天會下雨。
  • 偽陽性:使用 AI 模型時,它可能會將某些事物判定為威脅,但實際上並不是。舉例來說,用於偵測詐欺的 AI 模型,可能會將正常交易誤標為詐欺事件。
  • 偽陰性:AI 模型可能無法辨識哪些是威脅。舉例來說,用來偵測癌症的 AI 模型可能無法辨識癌性腫瘤。

如何避免產生 AI 幻覺

如要避免產生 AI 幻覺,可以採取以下幾種做法:

限制可能的結果

訓練 AI 模型時,請務必限制模型可預測的可能結果數量。只要使用稱為「正則化」的技術即可。正則化會懲罰模型做出過於極端的預測。這有助於防止模型過度配適訓練資料,並做出不正確的預測。

僅使用相關且明確的來源訓練 AI

訓練 AI 模型時,請務必使用與模型將執行的任務相關的資料。舉例來說,如要訓練 AI 模型識別癌症,應使用醫療影像的資料集。使用與任務無關的資料可能會導致 AI 模型產生不正確的預測。

建立供 AI 遵循的範本

訓練 AI 模型時,建議您建立範本供模型遵循。這個範本可協助引導模型進行預測。舉例來說,如果您訓練 AI 模型來撰寫文字,您可以建立包含下列元素的範本:

  • 標題
  • 簡介
  • 內文
  • 結論

告訴 AI 你想要或不想要的內容

使用 AI 模型時,請務必告訴模型您想要和不想要的事物。這可以透過向模型提供意見回饋來達成。舉例來說,如果要使用 AI 模型產生文字,可以透過向模型說出您喜歡和不喜歡的文字來提供意見回饋。這將幫助模型瞭解你想要的內容。

透過 Google Cloud 解決業務難題

新客戶可以獲得價值 $300 美元的免費抵免額,盡情試用各項 Google Cloud 功能。
與 Google Cloud 銷售專員聯絡,深入探討您面臨的特殊難題。

展開下一步行動

運用價值 $300 美元的免費抵免額和超過 20 項一律免費的產品,開始在 Google Cloud 中建構產品與服務。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
控制台
Google Cloud