Google Cloud の Duet AI と責任ある AI

このドキュメントでは、Duet AI が、生成 AI に関連する機能、制限事項、リスクの観点からどのように設計されているかを説明します。

大規模言語モデルの機能とリスク

大規模言語モデル(LLM)では、次のような多くの有用なタスクを実行できます。

  • 言語を翻訳する。
  • テキストを要約する。
  • コードとクリエイティブ ライティングを生成する。
  • chatbot と仮想アシスタントを強化する。
  • 検索エンジンとレコメンデーション システムを補完する。

同時に、LLM の進化する技術機能により、不正使用、誤使用、意図しない結果や予期しない結果が発生する可能性があります。

LLM では、不適切なテキスト、配慮に欠けるいテキスト、事実と異なるテキストなど、予期しない出力が生成される場合があります。LLM は非常に汎用性が高いため、どのような種類の意図しない出力や予期しない出力が作成されるかを正確に予測することは困難です。

これらのリスクと複雑さを考慮し、Google Cloud の Duet AI は Google の AI に関する原則を考慮して設計されています。ただし、ユーザーがテクノロジーの制限事項を理解し、責任を持って安全に作業することが重要です。

Google Cloud の Duet AI の制限事項

Google Cloud の Duet AI を使用する場合には、次のような制限事項があります。(ただし、これらに限定されません)。

  • エッジケース。エッジケースとは、トレーニング データで十分に表されていない特殊な、まれな、または例外的な状況を指します。このような場合は、モデルの過度の信頼、コンテキストの解釈の誤り、不適切な出力などの Duet AI の出力につながる可能性があります。

  • モデルのハルシネーション、根拠、事実。Google Cloud の Duet AI には、現実の知識、物理的特性、または正確な理解における根拠と事実が不足している場合があります。この制限により、モデルのハルシネーションにつながる可能性があります。これにより Duet AI は、もっともらしい内容であるかのように聞こえるものの、事実とは異なる、無関係、不適切、または無意味な出力を生成する場合があります。ハルシネーションには、存在しないウェブページや、これまで存在したことのないウェブサイトへのリンクの作成も含まれることがあります。詳細については、Duet AI により適したプロンプトを作成するをご覧ください。

    ハルシネーションを最小限に抑えるために、大量の高品質のデータを提供してモデルのトレーニングと微調整を行うなどの手法や、検索拡張生成などのプロンプト エンジニアリング手法を使用しています。

  • データ品質とチューニング。Duet AI に入力されるプロンプト データの品質、精度、バイアスは、パフォーマンスに大きな影響を与える可能性があります。ユーザーが不正確なプロンプトまたは誤ったプロンプトを入力すると、Duet AI が最適ではないレスポンスや誤ったレスポンスを返すことがあります。

  • バイアス増幅。: 言語モデルによってトレーニング データに存在するバイアスが意図せず増幅されて、社会的偏見や特定のグループに対する不平等な扱いをさらに強める結果につながる可能性があります。

  • 言語の品質。Duet AI は、評価済みのベンチマークに関して優れた多言語機能を利用できますが、ベンチマークのほとんど(すべての公平性評価を含む)はアメリカ英語によるものです。

    言語モデルによって、ユーザーごとに提供されるサービスの品質が異なる場合があります。たとえば、一部の言語や言語のバリエーションでは、トレーニング データでの表現が少なくなるため、テキスト生成が効果的でない場合があります。表現の少ない英語以外の言語や英語のバリエーションでは、パフォーマンスが低下する可能性があります。

  • 公平性のベンチマークとサブグループ。Google Research の Due AI の公平性分析では、さまざまなリスクの可能性について包括的な説明はできません。たとえば、性別、人種、民族、宗教の軸に沿ったバイアスに注目していますが、分析はアメリカ英語のデータとモデルの出力に対してのみ行います。

  • ドメインに関する限定された専門知識。Duet AI は Google Cloud テクノロジーでトレーニングされていますが、高度に専門的なトピックや技術的トピックに関する正確で詳細な回答に必要な知識の深さが不足しているため、表面的または不正確な情報につながる可能性があります。

    Google Cloud コンソールで [Duet AI] ペインを使用する場合、Duet AI は特定のプロジェクトや環境の完全なコンテキストを認識できない場合があるため、「VM を作成した直近の日時」などの質問に答えることができない可能性があります。

    場合によっては、Duet AI はコンテキストの特定のセグメントをモデルに送信して、コンテキスト固有のレスポンスを受け取ります。たとえば、[Error Reporting サービス] ページのトラブルシューティングの提案ボタンをクリックした場合です。

Duet AI の安全性と有害性のフィルタリング

Google Cloud の Dut AI のプロンプトとレスポンスは、各ユースケースに適用される安全属性の包括的なリストと照合されます。これらの安全属性は、利用規定に違反するコンテンツを除外することを目的としています。出力が有害なとみなされると、レスポンスがブロックされます。

次のステップ