大型語言模型 (LLM) 可翻譯語言、摘要文字、生成創意寫作內容、生成程式碼、支援聊天機器人和虛擬助理,以及輔助搜尋引擎和推薦系統。但這項技術仍處於早期階段,隨著功能和用途不斷演進,可能會出現誤用、濫用,以及意料之外或無法預測的後果。大型語言模型可能會生成預期外的內容,包括令人反感、未顧及感受或與事實不符的文字。
此外,LLM 的功能多元,令人難以準確預測會輸出什麼出乎意料或未預期的內容。考量到這些風險和複雜性,Vertex AI 生成式 AI API 的設計遵循了 Google 的 AI 原則。不過,開發人員必須瞭解及測試模型,才能安全且負責任地部署模型。為協助開發人員,Vertex AI Studio 內建內容篩選器,而生成式 AI API 則提供安全屬性分數,協助客戶測試 Google 的安全篩選器,並根據自己的用途和業務定義合適的信賴度門檻。詳情請參閱「安全篩選器和屬性」一節。
將生成式 API 整合至您的專屬用途和情境時,可能需要考量其他負責任的 AI 考量事項和限制。我們鼓勵客戶採用建議做法,促進公平性、可解釋性、隱私權和安全性。
安全篩選器和屬性
如要瞭解如何為 API 使用安全篩選器和屬性,請參閱「Vertex AI 中的 Gemini API」。
模型限制
使用生成式 AI 模型時可能會遇到以下限制 (但不限於此):
極端案例:極端案例是指訓練資料中未充分呈現的異常、罕見或特殊情況。這類情況可能會導致模型效能受限,例如模型過度自信、誤解脈絡或輸出不當內容。
模型幻覺、建立基準和真實性:生成式 AI 模型可能缺乏真實世界的知識、物理性質或準確理解。這項限制可能會導致模型產生幻覺,也就是生成看似合理,但實際上違反事實、無關、不當或毫無意義的內容。如要降低這種情況發生的機率,可以讓模型以特定資料為基礎。如要進一步瞭解 Vertex AI 中的基準建立功能,請參閱基準建立總覽。
資料品質和微調:輸入模型中的提示或資料品質、準確度和偏誤程度,可能會對模型效能造成重大影響。如果使用者輸入不準確或錯誤的資料或提示,模型可能會產生不理想或錯誤的輸出內容。
偏誤放大:生成式 AI 模型可能會無意間放大訓練資料中既有的偏誤,導致輸出內容進一步加深社會偏見,並對特定群體造成不平等待遇。
語言品質:雖然模型在我們評估的基準中展現出令人驚豔的多語言能力,但我們的大多數基準 (包括所有公平性評估) 都是以英文進行。詳情請參閱 Google 研究網誌。
- 生成式 AI 模型可能會為不同使用者提供品質不一致的服務。舉例來說,由於訓練資料中某些方言或語言變體的代表性不足,因此文字生成功能可能無法有效處理這些語言。如果語言並非英文,或是英文語言變體較少,成效可能會較差。
公平性基準和子群組:Google Research 對生成式 AI 模型進行的公平性分析,並未詳盡列出各種潛在風險。舉例來說,我們著重於性別、種族、族裔和宗教軸向的偏誤,但只對英文資料和模型輸出內容執行分析。詳情請參閱 Google 研究網誌。
專業領域知識有限:生成式 AI 模型可能缺乏深入的知識,無法針對高度專業或技術性主題提供準確且詳細的回覆,導致資訊不夠深入或有誤。如果是複雜的專業用途,模型應根據特定領域的資料進行調整,且在可能對個人權利造成重大影響的情況下,必須有有意義的人工監督。
輸入和輸出內容的長度和結構:生成式 AI 模型的輸入和輸出詞元數量上限。如果輸入或輸出內容超過這個限制,系統就不會套用安全分類器,最終可能導致模型效能不佳。雖然我們的模型可處理各種文字格式,但如果輸入資料的結構異常或複雜,模型效能可能會受到影響。
建議做法
為安全且負責任地運用這項技術,除了內建的技術防護措施外,也請務必考量特定用途、使用者和業務背景的其他風險。
建議採取下列步驟:
- 評估應用程式的安全風險。
- 根據您的用途執行適當的安全測試。
- 視需要設定安全篩選機制。
- 徵求使用者意見回饋並監控內容。
檢舉濫用行為
如要檢舉疑似濫用本服務的行為,或檢舉含有不當內容或不實資訊的生成內容,請填寫以下表單:檢舉疑似濫用行為 Google Cloud。
其他資源
- 瞭解濫用行為監控。
- 進一步瞭解 Google 對負責任的 AI 做法的建議。
- 請參閱「在發展負責任的 AI 技術方面達成共識」網誌文章,