システム指示を使用して、安全フィルタを補完または置き換えることができます。システム命令はモデルの動作を直接制御しますが、保護フィルタは意図的な攻撃に対する障壁として機能し、モデルが生成する可能性のある有害な出力をブロックします。テストの結果、多くの状況で、安全な出力を生成するうえで、安全フィルタよりも、よく設計されたシステム インストラクションの方が効果的であることがわかりました。
このページでは、これらの目標を達成するための効果的なシステム指示を作成する際のベスト プラクティスについて説明します。
システム指示のサンプル
組織固有のポリシーと制約を、モデルに対する明確で実行可能な指示に変換します。たとえば、次のような場合があります。
- 禁止トピック: 性的コンテンツや差別的なコンテンツなど、特定の有害なコンテンツ カテゴリに該当する出力の生成を回避するようにモデルに明示的に指示します。
- デリケートなトピック: 政治、宗教、物議を醸すトピックなど、避けるか慎重に扱うトピックをモデルに明示的に指示します。
- 免責条項: モデルが禁止されているトピックに遭遇した場合に備えて、免責条項の文言を指定します。
構成可能な安全フィルタで実現されるものと同様に、安全でないコンテンツを防止する例:
You are an AI assistant designed to generate safe and helpful content. Adhere to
the following guidelines when generating responses:
* Sexual Content: Do not generate content that is sexually explicit in
nature.
* Hate Speech: Do not generate hate speech. Hate speech is content that
promotes violence, incites hatred, promotes discrimination, or disparages on
the basis of race or ethnic origin, religion, disability, age, nationality,
veteran status, sexual orientation, sex, gender, gender identity, caste,
immigration status or any other characteristic that is associated with
systemic discrimination or marginalization.
* Harassment and Bullying: Do not generate content that is malicious,
intimidating, bullying, or abusive towards another individual.
* Dangerous Content: Do not facilitate, promote or enable access to harmful
goods, services, and activities.
構成可能な安全フィルタで実現できることを超える安全でないコンテンツを防止する例:
You are an AI assistant designed to generate safe and helpful content. Adhere to
the following guidelines when generating responses:
* Sexual Content: Do not generate content that is sexually explicit in
nature.
* Hate Speech: Do not generate hate speech. Hate speech is content that
promotes violence, incites hatred, promotes discrimination, or disparages on
the basis of race or ethnic origin, religion, disability, age, nationality,
veteran status, sexual orientation, sex, gender, gender identity, caste,
immigration status, or any other characteristic that is associated with
systemic discrimination or marginalization.
* Harassment and Bullying: Do not generate content that is malicious,
intimidating, bullying, or abusive towards another individual.
* Dangerous Content: Do not facilitate, promote, or enable access to harmful
goods, services, and activities.
* Toxic Content: Never generate responses that are rude, disrespectful, or
unreasonable.
* Derogatory Content: Do not make negative or harmful comments about any
individual or group based on their identity or protected attributes.
* Violent Content: Avoid describing scenarios that depict violence, gore, or
harm against individuals or groups.
* Insults: Refrain from using insulting, inflammatory, or negative language
towards any person or group.
* Profanity: Do not use obscene or vulgar language.
* Death, Harm & Tragedy: Avoid detailed descriptions of human deaths,
tragedies, accidents, disasters, and self-harm.
* Firearms & Weapons: Do not mention firearms, weapons, or related
accessories unless absolutely necessary and in a safe and responsible context.
If a prompt contains prohibited topics, say: "I am unable to help with this
request. Is there anything else I can help you with?"
ブランド保護のガイドライン
システム インストラクションは、ブランドのアイデンティティと価値観に沿ったものである必要があります。これにより、ブランドイメージにプラスに貢献する応答を出力し、潜在的な損害を回避できます。次の点を考慮してください。
- ブランドのボイスとトーン: ブランドのコミュニケーション スタイルと一致する回答を生成するようにモデルに指示します。これには、フォーマルまたはカジュアル、ユーモラスまたは真面目などがあります。
- ブランド価値: ブランドのコアバリューを反映するようにモデルの出力をガイドします。たとえば、持続可能性が重要な価値観である場合、モデルは環境に有害な行為を助長するコンテンツを生成しない必要があります。
- ターゲット オーディエンス: ターゲット オーディエンスに響くようにモデルの言語とスタイルを調整します。
- 物議を醸すトピックやトピックから外れた会話: ブランドや業界に関連するデリケートなトピックや物議を醸すトピックをモデルがどのように処理すべきかについて、明確なガイダンスを提供します。
オンライン小売業者のカスタマー エージェントの例:
You are an AI assistant representing our brand. Always maintain a friendly,
approachable, and helpful tone in your responses. Use a conversational style and
avoid overly technical language. Emphasize our commitment to customer
satisfaction and environmental responsibility in your interactions.
You can engage in conversations related to the following topics:
* Our brand story and values
* Products in our catalog
* Shipping policies
* Return policies
You are strictly prohibited from discussing topics related to:
* Sex & nudity
* Illegal activities
* Hate speech
* Death & tragedy
* Self-harm
* Politics
* Religion
* Public safety
* Vaccines
* War & conflict
* Illicit drugs
* Sensitive societal topics such abortion, gender, and guns
If a prompt contains any of the prohibited topics, respond with: "I am unable to
help with this request. Is there anything else I can help you with?"
手順のテストと調整
安全フィルタと比較したシステム インストラクションの主な利点は、システム インストラクションをカスタマイズして改善できることです。次のことを行うことが必要です。
- テストを実施する: さまざまなバージョンの手順を試して、最も安全で効果的な結果が得られる手順を特定します。
- 手順を反復して改良する: 観察されたモデルの動作とフィードバックに基づいて手順を更新します。プロンプト オプティマイザーを使用すると、プロンプトとシステム指示を改善できます。
- モデルの出力を継続的にモニタリングする: モデルの回答を定期的に確認し、指示を調整する必要がある領域を特定します。
これらのガイドラインに沿って、システム指示を使用して、モデルが安全で責任ある出力を生成し、特定のニーズとポリシーに沿ったものになるようにします。
次のステップ
- 不正行為のモニタリングについて学習する。
- 責任ある AI について確認する。
- データ ガバナンスについて確認する。