AI ハルシネーションとは

AI のハルシネーションとは、AI モデルが生成する不正確な結果や誤解を招く結果のことです。これらのエラーは、不十分なトレーニング データ、モデルによる誤った仮定、モデルのトレーニングに使用されるデータのバイアスなど、さまざまな要因によって発生する可能性があります。AI のハルシネーションは、医療診断や金融取引など、重要な意思決定に使用される AI システムにとって問題となることがあります。

新規のお客様には、Vertex AI やその他の Google Cloud プロダクトをお試しいただける無料クレジット最大 $300 分を差し上げます。

AI のハルシネーションはどのように発生しますか?

データに基づいてトレーニングされる AI モデルは、データのパターンを検出することで予測することを学習します。ただし、こうした予測の精度は、トレーニング データの品質と完全性に左右されることが多いものです。トレーニング データが不完全な場合や、トレーニング データにバイアスなどの欠陥がある場合、AI モデルが適切なパターンを学習できず、不正確な予測やハルシネーションが生じるおそれがあります。

たとえば、医療画像のデータセットに基づいてトレーニングされた AI モデルは、がん細胞を識別するように学習するかもしれません。しかし、データセットに正常組織の画像が含まれていない場合、AI モデルは正常組織ががんであると誤って予測する可能性があります。

トレーニング データの欠陥は、AI のハルシネーションが発生する理由の一つにすぎません。考えられるもう一つの要因は、適切なグラウンディングの欠如です。AI モデルにおいて、現実世界の知識、物理的特性、事実情報を正確に理解することが難しい場合があります。このようなグラウンディングがないと、一見もっともらしく見えるものの、実際には事実と反する出力、無関係な出力、意味をなさない出力が生成される原因となります。存在しないウェブページへのリンクが作成されることもあります。

例として、ニュース記事の要約を生成するように設計された AI モデルが、元の記事にはない詳細情報を含む要約を生成したり、完全に偽の情報を生成したりすることが挙げられます。

AI モデルを扱うデベロッパーにとって、AI のハルシネーションの潜在的な原因を理解することは重要です。デベロッパーは、トレーニング データの品質と完全性を慎重に考慮し、適切なグラウンディングを行うようにすることで、AI のハルシネーションのリスクを最小限に抑え、モデルの精度と信頼性を確保できます。

AI のハルシネーションの例

AI のハルシネーションにはさまざまな形態があります。以下は、一般的な例です。

  • 誤った予測: AI モデルは、発生する可能性が低い場合にイベントが発生すると予測することがあります。たとえば、天気の予測に使用される AI モデルは、天気予報で雨が降らなくても、明日雨が降ると予測することがあります。
  • 偽陽性: AI モデルに取り組む際、そうでなくても脅威であると識別することがあります。たとえば、不正行為の検出に使用される AI モデルは、不正でない取引にフラグを立てることができます。
  • 偽陰性: AI モデルは、脅威であると識別できないことがあります。たとえば、がんの検出に使用される AI モデルでも、がん性のがんは特定できない場合があります。

AI のハルシネーションを防ぐ方法

AI のハルシネーションを防ぐためにできることはいくつかあります。以下に例を示します。

起こり得る結果を制限する

AI モデルをトレーニングするときは、モデルが予測できる結果の数を制限することが重要です。これを行うには、「正則化」と呼ばれる手法を使用します。 正則化は、過度に極端な予測を行った場合にモデルにペナルティを与えます。これにより、モデルがトレーニング データを過学習して誤った予測を行うのを防ぐことができます。

関連性のある特定のソースのみで AI をトレーニングする

AI モデルをトレーニングするときは、モデルが実行するタスクに関連するデータを使用することが重要です。たとえば、がんを識別する AI モデルをトレーニングする場合は、医療画像のデータセットを使用する必要があります。タスクに関係のないデータを使用すると、AI モデルの予測が不正確になる可能性があります。

AI が使用するテンプレートを作成する

AI モデルをトレーニングする際は、モデルが従うテンプレートを作成すると便利です。このテンプレートは、モデルによる予測のガイドとして役立ちます。たとえば、テキストを書くように AI モデルをトレーニングする場合は、次の要素を含むテンプレートを作成できます。

  • タイトル
  • 概要
  • 本文
  • 結論

「望むもの」と「望まないもの」を AI に伝える

AI モデルを使用するときは、望ましいものと望ましくないものをモデルに伝えることが重要です。そのためには、モデルにフィードバックを提供します。たとえば、AI モデルを使用してテキストを生成している場合、どのテキストが好きで、どのテキストが好きでないかをモデルに伝えて、モデルにフィードバックを提供できます。これにより、求めているものをモデルが学習しやすくなります。

Google Cloud でビジネスの課題を解決する

新規のお客様には、Google Cloud で使用できる無料クレジット $300 分を差し上げます。
お客様独自の課題を詳細に検討するには、Google Cloud のセールス スペシャリストまでご相談ください。

Google Cloud がハルシネーションを防ぐ仕組み

Google Cloud を使用して AI のハルシネーションを防止する方法を学習する。

次のステップ

$300 分の無料クレジットと 20 以上の Always Free プロダクトを活用して、Google Cloud で構築を開始しましょう。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
コンソール
  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud