責任ある AI

大規模言語モデル(LLM)は、言語の翻訳、テキストの要約、創作文の作成、コードの生成、chatbot と仮想アシスタントの強化、検索エンジンとレコメンデーション システムの補完を行うことができます。それに加えて、まだ初期段階のテクノロジーであり、その機能も使い方も進化を続けているため、誤用や不正使用、意図しない結果や予想外の結果を生む余地があります。大規模言語モデルでは、不快なテキスト、配慮に欠けるテキスト、事実と異なるテキストなど、予期しない出力が生成される場合があります。

さらに、LLM には驚くべき汎用性があるため、生成される可能性がある意図しない出力や予期しない出力の種類を正確に予測することも難しくなっています。こうしたリスクと複雑さを考慮して、Vertex AI の生成 AI API は Google の AI に関する原則を念頭に置いて設計されています。ただし、安全かつ責任を持ってデプロイするには、デベロッパーがモデルを理解してテストすることが重要です。デベロッパーを支援するため、Vertex AI Studio にはコンテンツ フィルタリングが組み込まれており、また生成 AI API には、お客様が Google の安全性フィルタをテストして、ユースケースやビジネスに適した信頼度のしきい値を定義できる安全性属性のスコアリングが用意されています。詳細については、安全フィルタと属性のセクションをご覧ください。

生成 API を固有のユースケースやコンテキストに統合する場合は、責任ある AI に関する別の考慮事項や制限事項を検討しなければならない場合があります。お客様には、公平性、解釈可能性、プライバシー、セキュリティの推奨プラクティスを促進することをおすすめします。

安全フィルタと属性

API に安全フィルタと属性を使用する方法については、以下のページをご覧ください。

引用メタデータ

Google の生成コード機能は、オリジナルのコンテンツを生成することを目的としており、既存のコンテンツを詳細に複製することは目的にしていません。Google のシステムは、このような問題が発生する可能性を抑えるように設計されており、今後もこれらのシステムの動作は改善されます。あるウェブページのさまざまな部分をこれらの機能が直接参照している場合、そのページを引用していることになります。

同じコンテンツが複数のウェブページで見つかった場合、Google は一般的なソースを指し示すことがあります。コード リポジトリを引用する場合は、該当するオープンソース ライセンスへの参照も追加されることがあります。ライセンス要件は、ご自身の責任で遵守していただく必要があります。

引用メタデータのサンプル

{
  "predictions": [
    {
      "safetyAttributes": {
        "scores": [],
        "categories": [],
        "blocked": false
      },
      "content": "Shall I compare thee to a summer's day?\nThou art more lovely and more temperate.\nRough winds do shake the darling buds of May,\nAnd summer's lease hath all too short a date.\n\nSometime too hot the eye of heaven shines,\nAnd often is his gold complexion dimm'd;\nAnd every fair from fair sometime declines,\nBy chance or nature's changing course, untrimm'd.\n\nBut thy eternal summer shall not fade,\nNor lose possession of that fair thou ow'st,\nNor shall death brag thou wanderest in his shade,\nWhen in eternal lines to time thou grow'st.\n\nSo long as men can breathe or eyes can see,\nSo long lives this and this gives life to thee.",
      "citationMetadata": {
        "citations": [
          {
            "endIndex": 262,
            "publicationDate": "1800",
            "startIndex": 0,
            "title": ""The" Royal Shakespeare"
          },
          {
            "title": "Sabrinae corolla in hortulis regiae scholae Salopiensis contextuerunt tres viri floribus legendis ...",
            "publicationDate": "1801",
            "startIndex": 140,
            "endIndex": 417
          },
          {
            "startIndex": 302,
            "publicationDate": "1800",
            "title": ""The" Royal Shakespeere",
            "endIndex": 429
          },
          {
            "startIndex": 473,
            "publicationDate": "1847",
            "title": "The Poems of William Shakespeare",
            "endIndex": 618
          }
        ]
      }
    }
  ]
}

メタデータの説明

次の表に、引用メタデータを示します。

メタデータ 説明

startIndex

引用が開始されるレスポンスの索引(両端を含む)。0 以上、endIndex の値より小さい値を指定する必要があります。

endIndex

引用が終了する予測出力のインデックス(終了箇所は含まない)。startIndex より大きく、レスポンスの長さより小さい値を指定する必要があります。

url

この引用に関連付けられている URL。この URL が存在する場合は、この引用のソース ウェブページにリンクします。

title

この引用に関連付けられているタイトル。存在する場合は、この引用のソースのタイトルを指します。

license

この引用に関連付けられているライセンス。存在する場合は、この引用元に対して自動的に検出されたライセンスを指します。考えられるライセンスの例としては、オープンソース ライセンスが挙げられます。

publicationDate

この引用に関連付けられている公開日。存在する場合は、この引用の出典が公開された日付を指します。使用できる形式は、YYYY、YYYY-MM、YYYY-MM-DD です。

モデルの制限事項

生成 AI モデルを使用する際に直面する可能性のある制限事項には、次のようなものがあります(これらに限定されません)。

  • エッジケース: エッジケースとは、トレーニング データで十分に表現されていない、一般的でない状況、まれな状況、または例外的な状況を指します。このようなケースは、モデルの過度な信頼度、コンテキストの解釈の誤り、不適切な出力など、モデルのパフォーマンスの制限につながる可能性があります。

  • モデルのハルシネーション、根拠づけ、真正性: 生成 AI モデルには、実世界の知識、物理的特性、正確な理解に関する真正性が欠落している場合があります。この制限により、モデルのハルシネーションにつながる可能性があります。これにより、もっともらしい内容であるかのように聞こえるものの、事実とは異なる、無関係、不適切、または意味のない出力が生成される可能性があります。この可能性を減らすには、モデルが特定のデータに根拠づけされるようにします。Vertex AI での根拠づけの詳細については、根拠づけの概要をご覧ください。

  • データ品質とチューニング: モデルへのプロンプトやデータ入力の品質、精度、バイアスは、モデルのパフォーマンスに大きな影響を与える可能性があります。ユーザーが不正確なまたは誤ったデータやプロンプトを入力すると、モデルが最適なパフォーマンスを発揮できなかったり、モデル出力が正しく行われなかったりする可能性があります。

  • バイアス増幅: 生成 AI モデルによってトレーニング データに存在する既存のバイアスが意図せず増幅されて、社会的偏見や特定のグループに対する不平等な扱いをさらに強める結果につながる可能性があります。

  • 言語の品質: モデルは評価対象のベンチマークについて優れた多言語機能を備えていますが、ベンチマークの大部分(すべての公平性評価を含む)は英語で記述されています。詳細については、Google Research ブログをご覧ください。

    • 生成 AI モデルでは、ユーザーごとに提供されるサービスの品質が異なる場合があります。たとえば、一部の言語や言語の種類では、トレーニング データの表現が少なくなるため、テキスト生成が効果的でない場合があります。英語以外の言語や、表現の少ない英語のバリエーションでは、パフォーマンスが低下する可能性があります。
  • 公平性ベンチマークとサブグループ: Google Research の生成 AI モデルの公平性分析は、さまざまな潜在的なリスクを網羅的に説明するものではありません。たとえば、性別、人種、民族、宗教の軸に沿ったバイアスに注目していますが、分析は英語のデータとモデルの出力に対してのみ行います。詳細については、Google Research ブログをご覧ください。

  • 限定的な分野の専門知識: 生成 AI モデルは、高度に特化したトピックや技術的なトピックについて、正確で詳細な回答を提供するのに必要な深い知識が欠落しているために、表面的な情報や誤った情報を出力する可能性があります。特殊で複雑なユースケースでは、モデルをその分野固有のデータでチューニングする必要があります。また、個人の権利に実質的な影響を与える可能性がある状況では、人間による有意な管理が必要になります。

  • 入力と出力の長さと構造: 生成 AI モデルには、入力と出力のトークンの上限があります。入力または出力がこの上限を超えると、安全性分類器が適用されず、最終的にモデルのパフォーマンスが低下する可能性があります。モデルはさまざまなテキスト形式を処理するように設計されていますが、入力データが通常とは異なる構造や複雑な構造を持つ場合は、パフォーマンスに影響する可能性があります。

このテクノロジーを安全かつ責任を持って利用するには、組み込まれている技術的な安全保護対策に加えて、ユースケース、ユーザー、ビジネス コンテキストに固有の他のリスクも考慮することが重要です。

次の手順を行うことをおすすめします。

  1. アプリケーションのセキュリティ リスクを評価する。
  2. 安全性のリスクを軽減するための調整を検討する。
  3. ユースケースに適した安全性テストを実施する。
  4. ユーザーからのフィードバックを求め、コンテンツをモニタリングする。

不正行為を報告する

本サービスに関して不正行為が疑われる場合、または不適切な内容や不正確な情報を含んで生成された出力結果については、Google Cloud で不正行為が疑われる場合の報告フォームを使用して報告できます。

参考情報