大規模言語モデル(LLM)は、言語の翻訳、テキストの要約、創作文の作成、コードの生成、chatbot と仮想アシスタントの強化、検索エンジンとレコメンデーション システムの補完を行うことができます。それに加えて、まだ初期段階のテクノロジーであり、その機能も使い方も進化を続けているため、誤用や不正使用、意図しない結果や予想外の結果を生む余地があります。大規模言語モデルでは、不快なテキスト、配慮に欠けるテキスト、事実と異なるテキストなど、予期しない出力が生成される場合があります。
さらに、LLM には驚くべき汎用性があるため、生成される可能性がある意図しない出力や予期しない出力の種類を正確に予測することも難しくなっています。こうしたリスクと複雑さを考慮して、Vertex AI の生成 AI API は Google の AI に関する原則を念頭に置いて設計されています。ただし、安全かつ責任を持ってデプロイするには、デベロッパーがモデルを理解してテストすることが重要です。デベロッパーを支援するため、Vertex AI Studio にはコンテンツ フィルタリングが組み込まれており、また生成 AI API には、お客様が Google の安全性フィルタをテストして、ユースケースやビジネスに適した信頼度のしきい値を定義できる安全性属性のスコアリングが用意されています。詳細については、安全フィルタと属性のセクションをご覧ください。
生成 API を固有のユースケースやコンテキストに統合する場合は、責任ある AI に関する別の考慮事項や制限事項を検討しなければならない場合があります。お客様には、公平性、解釈可能性、プライバシー、セキュリティの推奨プラクティスを促進することをおすすめします。
安全フィルタと属性
API に安全フィルタと属性を使用する方法については、以下のページをご覧ください。
モデルの制限事項
生成 AI モデルを使用する際に直面する可能性のある制限事項には、次のようなものがあります(これらに限定されません)。
エッジケース: エッジケースとは、トレーニング データで十分に表現されていない、一般的でない状況、まれな状況、または例外的な状況を指します。このようなケースは、モデルの過度な信頼度、コンテキストの解釈の誤り、不適切な出力など、モデルのパフォーマンスの制限につながる可能性があります。
モデルのハルシネーション、根拠づけ、真正性: 生成 AI モデルには、実世界の知識、物理的特性、正確な理解に関する真正性が欠落している場合があります。この制限により、モデルのハルシネーションにつながる可能性があります。これにより、もっともらしい内容であるかのように聞こえるものの、事実とは異なる、無関係、不適切、または意味のない出力が生成される可能性があります。この可能性を減らすには、モデルが特定のデータに根拠づけされるようにします。Vertex AI での根拠づけの詳細については、根拠づけの概要をご覧ください。
データ品質とチューニング: モデルへのプロンプトやデータ入力の品質、精度、バイアスは、モデルのパフォーマンスに大きな影響を与える可能性があります。ユーザーが不正確なまたは誤ったデータやプロンプトを入力すると、モデルが最適なパフォーマンスを発揮できなかったり、モデル出力が正しく行われなかったりする可能性があります。
バイアス増幅: 生成 AI モデルによってトレーニング データに存在する既存のバイアスが意図せず増幅されて、社会的偏見や特定のグループに対する不平等な扱いをさらに強める結果につながる可能性があります。
言語の品質: モデルは評価対象のベンチマークについて優れた多言語機能を備えていますが、ベンチマークの大部分(すべての公平性評価を含む)は英語で記述されています。詳細については、Google Research ブログをご覧ください。
- 生成 AI モデルでは、ユーザーごとに提供されるサービスの品質が異なる場合があります。たとえば、一部の言語や言語の種類では、トレーニング データの表現が少なくなるため、テキスト生成が効果的でない場合があります。英語以外の言語や、表現の少ない英語のバリエーションでは、パフォーマンスが低下する可能性があります。
公平性ベンチマークとサブグループ: Google Research の生成 AI モデルの公平性分析は、さまざまな潜在的なリスクを網羅的に説明するものではありません。たとえば、性別、人種、民族、宗教の軸に沿ったバイアスに注目していますが、分析は英語のデータとモデルの出力に対してのみ行います。詳細については、Google Research ブログをご覧ください。
限定的な分野の専門知識: 生成 AI モデルは、高度に特化したトピックや技術的なトピックについて、正確で詳細な回答を提供するのに必要な深い知識が欠落しているために、表面的な情報や誤った情報を出力する可能性があります。特殊で複雑なユースケースでは、モデルをその分野固有のデータでチューニングする必要があります。また、個人の権利に実質的な影響を与える可能性がある状況では、人間による有意な管理が必要になります。
入力と出力の長さと構造: 生成 AI モデルには、入力と出力のトークンの上限があります。入力または出力がこの上限を超えると、安全性分類器が適用されず、最終的にモデルのパフォーマンスが低下する可能性があります。モデルはさまざまなテキスト形式を処理するように設計されていますが、入力データが通常とは異なる構造や複雑な構造を持つ場合は、パフォーマンスに影響する可能性があります。
おすすめのヒント
このテクノロジーを安全かつ責任を持って利用するには、組み込まれている技術的な安全保護対策に加えて、ユースケース、ユーザー、ビジネス コンテキストに固有の他のリスクも考慮することが重要です。
次の手順を行うことをおすすめします。
- アプリケーションのセキュリティ リスクを評価する。
- 安全性のリスクを軽減するための調整を検討する。
- ユースケースに適した安全性テストを実施する。
- ユーザーからのフィードバックを求め、コンテンツをモニタリングする。
不正行為を報告する
本サービスに関して不正行為が疑われる場合、または不適切な内容や不正確な情報を含んで生成された出力結果については、Google Cloud で不正行為が疑われる場合の報告フォームを使用して報告できます。
参考情報
- 責任ある AI への取り組みに関する Google の推奨事項について学ぶ。
- Google のブログ、責任ある AI の進展に関する共有アジェンダを読む。