本指南說明 Vertex AI 中的負責任 AI 功能、模型可能有的限制,以及安全且負責任地開發生成式 AI 應用程式的最佳做法。本頁面涵蓋下列主題:
- 安全篩選器和屬性:瞭解 Vertex AI 生成式 AI API 內建的內容篩選器和安全屬性分數。
- 模型限制:瞭解生成式模型的潛在限制,例如幻覺、偏見和專業領域知識有限。
- 建議做法:按照建議步驟評估安全性風險、執行安全測試,以及監控應用程式。
- 檢舉濫用行為:瞭解如何檢舉疑似濫用行為或不當的生成內容。
將生成式 API 整合到應用實例和情境時,您可能需要考量其他負責任的 AI 因素和限制。如要提升公平性、可解釋性、隱私權和安全性,請遵循建議做法。
安全篩選器和屬性
如要瞭解如何使用 API 的安全篩選器和屬性,請參閱「Vertex AI 中的 Gemini API」。
模型限制
生成式 AI 模型有下列限制:
極端情況:訓練資料中未充分呈現的異常、罕見或特殊情況。這類情況可能會導致效能受限,例如模型過度自信、誤解脈絡或產生不當輸出內容。
模型幻覺、根據和事實:生成式 AI 模型可能會輸出看似合理但事實不正確的內容,因為模型可能缺乏真實世界的知識,或對物理性質的理解不夠準確。如要減少幻覺,可以運用特定資料建立模型基準。詳情請參閱基礎總覽。
資料品質和微調:輸入提示或資料的品質、準確度和偏誤程度,會大幅影響模型效能。如果輸入的內容不準確或有偏誤,可能會導致成效不佳或輸出錯誤內容。
偏誤放大:生成式 AI 模型可能會放大訓練資料中既有的偏誤,導致輸出內容強化社會偏見,以及對特定群體的不平等待遇。
語言品質:模型在不同語言、方言和語言變體之間的效能可能不一致。如果訓練資料中缺少某種語言或方言,系統的辨識準確度可能會較低。雖然模型的多語言能力令人驚豔,但大多數基準 (包括所有公平性評估) 都是以英文進行。詳情請參閱 Google 研究網誌。
公平性基準和子群組:Google Research 的公平性分析不會涵蓋所有潛在風險。舉例來說,分析的重點是與性別、種族、族裔和宗教相關的偏誤,但只使用英文資料和模型輸出內容。詳情請參閱 Google 研究網誌。
專業領域知識有限:模型可能缺乏深入知識,無法處理高度專業或技術性主題,導致資訊不夠深入或有誤。如為特定用途,請考慮根據領域專屬資料調整模型,並納入有意義的人工監督,尤其是在可能影響個人權利的環境中。
輸入和輸出內容的長度和結構:模型對輸入和輸出內容的詞元 (字詞片段) 數量設有上限。如果輸入或輸出內容超出這個限制,模型就不會套用安全分類器,導致模型效能不佳。此外,異常或複雜的輸入資料結構可能會對效能造成負面影響。
建議做法
為安全且負責任地使用這項技術,除了內建的技術安全防護措施外,請一併考量特定用途的風險。
建議您採取下列步驟:
- 評估應用程式的安全風險。
- 根據您的用途執行適當的安全測試。
- 視需要設定安全篩選機制。
- 徵求使用者意見回饋並監控內容。
檢舉濫用行為
如要檢舉疑似濫用服務的行為,或檢舉含有不當內容或不實資訊的生成結果,請使用「檢舉疑似濫用 Google Cloud的行為」表單。
其他資源
- 瞭解濫用行為監控。
- 進一步瞭解 Google 對負責任的 AI 做法的建議。
- 請參閱「在發展負責任的 AI 技術方面達成共識」網誌。