コンテンツに移動
AI & 機械学習

生成 AI 最前線、ハルシネーションの抑制から最新 LLM 開発まで

2024年11月13日
https://storage.googleapis.com/gweb-cloudblog-publish/images/BlogBanner_GenAIsummit_keynote5.max-2000x2000.png
Google Cloud Japan Team

10 月 24 日に開催した「Generative AI Summit Tokyo '24 Fall」の基調講演では、生成 AI がビジネスにもたらす可能性と具体的な活用事例、そして LLM 開発の現状について解説しました。

無料で視聴する

生成 AI 活用の 3 段階: 試す → 活用する → 組み込む

Google Cloud の寳野は、生成 AI への取り組み方として「試す」「活用する」「組み込む」の 3 段階について解説しました。まずは、Gemini アプリのようなチャットアプリを試して AI に慣れ、アイデアを膨らまします。 次に、Gemini for Google Workspace や、Gemini Code Assist のような SaaS 型のエージェントを活用し、汎用的な領域の業務効率化や生産性向上を早期に実現することが可能です。 そして最終的には、自社のコア業務に合わせた AI エージェントを、API を使って開発、組み込み、ビジネスの競争力を高めます。時間はかかるものの、ビジネスのインパクトは、自社のコア領域が最も多くなるため、この検討を今開始することが非常に重要です。

ハルシネーションの抑制

マッキンゼーの調査によると、63 % の企業が、生成 AI 活用ユースケースのリスクとして、ハルシネーションをあげています。ここでは、ハルシネーションを抑制する方法として、以下の 2 つを紹介します。

ロングコンテキストによる解釈違いの低減

従来の生成AIモデルでは、入力できるトークン数に制限があったため、RAG と呼ばれる技術を用いて、文章全体から一部を検索し回答を生成していました。しかし、この方法では文脈を読み落とす可能性があり、間違った回答が生成されるリスクがありました。

最新の Gemini では、最大 200 万トークンという膨大な情報量を処理できるようになり、約140万文字以上のドキュメントや動画、画像全体を理解した上で、最適な回答を生成することが可能になりました。このロングコンテキストを活用することで、「In-Context Learning」と呼ばれる技術により、従来の RAG と比較してパフォーマンスが 12 ポイント向上するというケースが確認されています。

https://storage.googleapis.com/gweb-cloudblog-publish/images/92.max-2200x2200.png

生成 AI に知識を答えさせない「高忠実度モード」

生成 AI は、知識を持たない範囲に対し、持っている知識からもっともらしい文章を無理やり回答してしまうことがあり、これがハルシネーションの原因の一つとなります。この問題に対処するため、与えられたドキュメントソースからのみ回答を行い、自身の知識を使わない「高忠実度モード (High Fidelity Mode)」が開発されました。この機能により、企業がより安心して生成 AI を利用できる環境が整いつつあります。

高忠実度モードでは、回答の信頼度スコアと引用元を明示することで、ユーザーは回答の妥当性を判断しやすくなります。

https://storage.googleapis.com/gweb-cloudblog-publish/images/93.max-2200x2200.png

企業トップがリードしなければ変革は起きない

デロイト トーマツ コンサルティングが行っている 2024 年 6 月に行われた CEOサーベイによると、生成 AI は、企業の競争力を高めるための経営課題として認識されています。以前はタスクの自動化が注目されていましたが、現在はイノベーションの加速や成長機会の特定に、CEO の主眼が置かれています。デロイトトーマツコンサルティングの首藤 佑樹 氏は、一部の従業員だけが生成 AI を使っていても経営の効果にはならないと述べます。生産性の向上やリードタイムの短縮などチームの目標を設定することが重要です。さらに、企業のリーダー自らが率先して生成 AI を活用し、全社的なビジョンの策定、浸透、そして変革への投資を行う必要があります。

https://storage.googleapis.com/gweb-cloudblog-publish/images/95.max-2200x2200.png

多くの企業は、従業員へのプロンプトエンジニアリングのトレーニングや、社内データ検索のための RAG 導入といった段階にとどまっています。しかし、AI エージェントの効果を飛躍的に高めるためには、ファインチューニングや統合データ基盤の整備など、より先進的な取り組みが求められています。真の競争優位を築くためには、トップマネジメントを巻き込み、AI をコア業務に組み込む変革が必要です。

TBSテレビの挑戦、映像への自動メタ

TBSテレビでは、従来人海戦術で行っていたメタデータ付与作業を Gemini によって自動化し、大幅な時間短縮に成功しました。TBS テレビの柿沼 司 氏は、動画はテロップやナレーションなど情報量が多く、その中からニーズに合わせた情報提供をするために、一つの映像素材を、テロップやナレーションのない素材、テロップ入り素材、ナレーション入り素材に分け、それぞれを解析し構造化データとして出力することで、精度の高いメタデータを出力できるようになったと述べています。また、いくつかあるジャンルの中であえて特に正確性が求められるニュース素材から利用を開始しました。ハルシネーション対策として、Gemini によるメタデータ作成と人のチェックを組み合わせることで作業効率を大幅に向上できることが分かりました。

https://storage.googleapis.com/gweb-cloudblog-publish/images/96.max-2200x2200.png

カインズが、曖昧なキーワード検索対応で顧客体験向上!再検索率 5 %減

カインズでは、EC サイトとアプリのリニューアルに伴い、Vertex AI Search を導入し、曖昧なキーワードでも商品検索ができるようになりました。カインズの青山 邦恵 氏は、「あったかい布団」「白いゴミ箱」のような曖昧なキーワードでも商品を的確にヒットできるようになり、再検索率を 5% 低下させることができたと述べています。この機能により、ユーザーはより早く目的の商品を見つけることができ、購買体験の向上に繋がると期待されています。

さらにカインズは、Gemini を活用した関連商品の抽出と需要予測にも取り組んでおり、より精度の高い発注と適正な在庫管理を目指しています。

https://storage.googleapis.com/gweb-cloudblog-publish/images/97.max-2200x2200.png

生成 AI の未来: LLM 開発、ユースケース、生成 AI を活用する際のアドバイス

日本を代表する生成 AI モデル開発企業である Preferred Networks(以降 PFN)の 岡野原 大輔 氏Sakana AI の湯 聿津 氏と、MC の Google Cloud 下田が、LLM 開発の現状と未来について議論しました。

--- 各社の LLM 開発について、背景や考え方も含めて

PFN 岡野原氏

PFN が開発する大規模言語モデル「PLaMo」は、データ収集からモデル開発までを全て国内で行う国産フルスクラッチモデルです。膨大な計算資源と電力を要する大規模モデル開発において、日本語性能に特化し、世界最高クラスの日本語性能を目指しています。

その背景には、高い推論能力と問題解決能力を持つ汎用的なAIを開発しつつ、医療や産業領域など、特定の知識が必要な分野への応用も見据えています。PFNは、大規模モデルと並行して、自動車や組み込み向けなどの軽量なモデルも開発しており、用途に応じて使い分けることで、コストと電力消費を抑えながら、様々なニーズに対応しようとしています。

https://storage.googleapis.com/gweb-cloudblog-publish/images/98.max-2200x2200.jpg

Sakana AI ユージン氏

Sakana AI は、既存の AI モデル開発の主流である、モデルの大規模化やデータ量の増加といった手法とは異なる、「自然から着想を得た新しいアプローチ」も重視しています。その代表例が「進化的モデルマージ」です。この手法は、複数のモデルを組み合わせることで、単一のモデルよりも優れたパフォーマンスを実現するものです。

このアプローチの背景には、主に 2 つの狙いがあります。1 つ目は、異なるモデルの強みを組み合わせることで、より強力で柔軟なシステムを構築することです。2 つ目は、英語圏の高度な生成モデルの構造的な機能を、日本語のような非英語圏の言語理解や文化認識に強いモデルと組み合わせることで、非英語圏地域における AI 活用のメリットを拡大することです。

https://storage.googleapis.com/gweb-cloudblog-publish/images/99.max-2200x2200.jpg

--- 各社 LLM のユースケース、活用シーンについて

PFN 岡野原氏

PFN が開発する「PLaMo」は、各企業や個人が持つデータを取り込み、独自の生成 AI として活用することで、競争力向上に貢献することを想定しています。

具体的なユースケースとしては、既存の生成 AI を活用したプロダクト「Preferred AI」の適用範囲拡大に加え、企業や個人が保有するデータの付加価値を高めることで、独自の生成 AI を活用した競争力強化を支援していくことを目指しています。特に、PFN が従来から強みを持つ産業領域において、PLaMo の活用による大きな成長が期待されています。

Sakana AI ユージン氏

進化的モデルマージは研究の一例ですが、他の例として自己適応型 AI モデルというものがあります。特定のタスクや状況に合わせて自己組織化し、自動的に適応する AI のことです。 例えば、ユーザーが自然言語で問題をシステムに入力すると、システムは自己適応機能を用いて、ニーズに最適なパラメータを自動的に調整し、解決策を提示します。

自然界の蟻が、環境に合わせて橋を構築するように、人間の脳もタスクに応じて異なる領域を使い分けるように、自己適応型AIモデルも柔軟性と効率性を追求します。 この技術は、特定の業界や企業のニーズに合わせてカスタマイズされたアプリケーションやモデル開発に役立ちます。

--- 企業で生成AIを活用する際のアドバイス

PFN 岡野原氏

生成 AI 技術は、ムーアの法則をはるかに超えるペースで進化しており、提供コストも毎年劇的に低下しています。今は実用化が難しいと思われるものでも、将来的には実用化が可能になる可能性があります。

ですから、生成 AI の社会実装や業務利用にあたっては、実際に様々なユースケースを試してみて、使える部分から活用していくことが重要です。そうすることで、個人や社内で経験値を積み重ねることができ、今後の生成 AI の発展にも対応できる体制を構築することができます。

Sakana AI ユージン氏

生成 AI モデルは一度開発したら終わりではなく、データや環境の変化に合わせて継続的なモニタリングとアップデートが重要です。モデル開発の段階から、長期的なメンテナンス体制や、堅牢なメンテナンスパイプラインを設計しておくことが、モデルの性能維持・向上に繋がり、長期的な活用を可能にします。

投稿先