AI のハルシネーションとは、AI モデルが生成する不正確な結果や誤解を招く結果のことです。これらのエラーは、不十分なトレーニング データ、モデルによる誤った仮定、モデルのトレーニングに使用されるデータのバイアスなど、さまざまな要因によって発生する可能性があります。AI のハルシネーションは、医療診断や金融取引など、重要な意思決定に使用される AI システムにとって問題となることがあります。
新規のお客様には、Vertex AI やその他の Google Cloud プロダクトをお試しいただける無料クレジット最大 $300 分を差し上げます。
データに基づいてトレーニングされる AI モデルは、データのパターンを検出することで予測することを学習します。ただし、こうした予測の精度は、トレーニング データの品質と完全性に左右されることが多いものです。トレーニング データが不完全な場合や、トレーニング データにバイアスなどの欠陥がある場合、AI モデルが適切なパターンを学習できず、不正確な予測やハルシネーションが生じるおそれがあります。
たとえば、医療画像のデータセットに基づいてトレーニングされた AI モデルは、がん細胞を識別するように学習するかもしれません。しかし、データセットに正常組織の画像が含まれていない場合、AI モデルは正常組織ががんであると誤って予測する可能性があります。
トレーニング データの欠陥は、AI のハルシネーションが発生する理由の一つにすぎません。考えられるもう一つの要因は、適切なグラウンディングの欠如です。AI モデルにおいて、現実世界の知識、物理的特性、事実情報を正確に理解することが難しい場合があります。このようなグラウンディングがないと、一見もっともらしく見えるものの、実際には事実と反する出力、無関係な出力、意味をなさない出力が生成される原因となります。存在しないウェブページへのリンクが作成されることもあります。
例として、ニュース記事の要約を生成するように設計された AI モデルが、元の記事にはない詳細情報を含む要約を生成したり、完全に偽の情報を生成したりすることが挙げられます。
AI モデルを扱うデベロッパーにとって、AI のハルシネーションの潜在的な原因を理解することは重要です。デベロッパーは、トレーニング データの品質と完全性を慎重に考慮し、適切なグラウンディングを行うようにすることで、AI のハルシネーションのリスクを最小限に抑え、モデルの精度と信頼性を確保できます。
AI のハルシネーションにはさまざまな形態があります。以下は、一般的な例です。
AI モデルをトレーニングするときは、モデルが予測できる結果の数を制限することが重要です。これを行うには、「正則化」と呼ばれる手法を使用します。 正則化は、過度に極端な予測を行った場合にモデルにペナルティを与えます。これにより、モデルがトレーニング データを過学習して誤った予測を行うのを防ぐことができます。
AI モデルをトレーニングするときは、モデルが実行するタスクに関連するデータを使用することが重要です。たとえば、がんを識別する AI モデルをトレーニングする場合は、医療画像のデータセットを使用する必要があります。タスクに関係のないデータを使用すると、AI モデルの予測が不正確になる可能性があります。
AI モデルをトレーニングする際は、モデルが従うテンプレートを作成すると便利です。このテンプレートは、モデルによる予測のガイドとして役立ちます。たとえば、テキストを書くように AI モデルをトレーニングする場合は、次の要素を含むテンプレートを作成できます。
AI モデルを使用するときは、望ましいものと望ましくないものをモデルに伝えることが重要です。そのためには、モデルにフィードバックを提供します。たとえば、AI モデルを使用してテキストを生成している場合、どのテキストが好きで、どのテキストが好きでないかをモデルに伝えて、モデルにフィードバックを提供できます。これにより、求めているものをモデルが学習しやすくなります。
Google Cloud を使用して AI のハルシネーションを防止する方法を学習する。