The Prompt: AI 活用における失策に学ぶ
Google Cloud Japan Team
※この投稿は米国時間 2023 年 6 月 3 日に、Google Cloud blog に投稿されたものの抄訳です。
このところ、ビジネス リーダーたちの間では、ジェネレーティブ AI が話題の中心となっています。急速に進化を続け、変革をもたらすこの分野の話題をフォローできるよう、「The Prompt」と題したシリーズを通じ、Google がお客様やパートナーと接するなかでの気づきや、Google の AI の最新動向を紹介していきます。今回は、Google Cloud の AI &ビジネス ソリューション担当グローバル VP の Philip Moyer が、最近報道された AI 活用の失策について取り上げます。
先頃、ニューヨークの弁護士が、ジェネレーティブ AI アシスタントが作った架空のケースを引用して法廷用資料を作成、提出したことがニュースになりました。ここでこの話題を取り上げるのは、AI ソリューションの欠点を述べたり、凡ミスを犯して懲戒処分を受けるかどうかの瀬戸際にいるこの弁護士を非難したりするためではありません。よくあるミスだからこそ、この問題について言及したいのです。
多くの方はすでに、ジェネレーティブ AI モデルの「幻覚(Hallucinations)」について耳にしたことがあるかもしれません。幻覚とは、ジェネレーティブ AI がプロンプトに対してナンセンスな回答やでっちあげの情報を出力することを指します。また、AI アシスタントとのやりとりがモデルのトレーニングに使用されるかどうかをよく確認せずに、社外秘情報をうっかり漏洩してしまったケースについても聞いたことがあるかもしれません。アシスタント使用時のこうしたミスを通じて、個人情報を世界中に公開してしまうことは誰にでも起こりうることです。The Prompt のバックナンバーでもお伝えしたように、こうしたリスクを懸念して一部の企業では従業員による一般向け AI アプリの使用を禁じています。
こうした幻覚と不十分なデータ セキュリティ対策という 2 点が、ジェネレーティブ AI の導入時につまずく最大の要因となっています。例のニューヨークの弁護士は、懲戒処分の審議で、AI アシスタントの出力に虚偽の内容が含まれている可能性を認識していなかったと述べています。しかし、これは少なくとも前述のジェネレーティブ AI の 1 つ目の問題に該当しますし、この弁護士がクライアントの個人情報をプロンプトに入力していたとすれば、2 つ目の問題も該当する可能性があります。このケースには、重要な教訓がいくつも含まれており、同じような過ちを回避しながらジェネレーティブ AI を適切に導入するために大変参考になります。
人間を参加させることを忘れない
ジェネレーティブ AI アプリは、数か月前に比べて、こうした幻覚に対処する能力が向上しています。Google I/O でも議論されたように、すべてのジェネレーティブ モデルはこの課題に直面しており、有能なモデルを導入する前に、まずはしっかりとした安全機構を構築する必要性が認識されています。モデルそのものや、モデルを使ってジェネレーティブ AI ができることは今後も進化を続けるでしょうし、幻覚に対処するための方法も数多く存在します(これについてはのちほど言及します)。しかしながら、汎用的なジェネレーティブ AI アシスタントは概して、時間を節約してくれたり、アイデアのヒントを示してくれたりする「コラボレーター」という位置づけであり、完全に自動化してあとはお任せ、という類のものではありません。
AI を使いこなす人は往々にして、AI 単独、もしくは人間単独よりも高い成果を出します。したがって、今後のジェネレーティブ AI の利用方法は「ループに人間が参加していること」が前提となり、AI 出力を軌道修正、解釈、改良、ときには却下するといった介入が必要になるでしょう。AI の不正確な出力がそのまま最終成果物となった場合、それは、AI ツールの至らなさであると同時に、個人または複数の人々が AI を不適切な方法で使用したせいでもあります。
業界に特化したソリューションの必要性
専門性が高く、特に正確性が重視される分野では、人間による審査と、業務に適した AI ツールを選択することが重要となってきます。汎用的なジェネレーティブ AI アプリには多くの用途がありますが、特定の業界の要求に応えられるようには設計されていません。
ジェネレーティブ AI アプリが、弁護士や医者などの専門性の高い業務の役に立たないというわけではありません。ジェネレーティブ AI の出力をそのまま使用するのではなく、正しい方向に軌道修正すれば、ゼロから始めるよりも高い成果を上げられる可能性があります。また、業界独自のデータ(判例など)をあらかじめフィードしたうえで AI アシスタントに意見を求めるようにすることで、賢い見解を示してくれることも十分にありえます。
こうしたメリットはさておき、現時点では、一般向けアプリはエンタープライズ グレードの SLA を満たすにはほど遠く、今後もおそらくそのレベルに達することはないでしょう。一方で、要件が厳しい業界ほど、業界に特化したアプリやモデルの必要性が高まります。
汎用モデルの出力結果は、トレーニング セット内の全データに大きく左右されます。コーパスに法律や医学の参考文献だけでなく、ポップ カルチャーや、文学、スポーツ、世界史など、無数のトピックが含まれていれば、モデル内で奇妙なマッシュアップが誘発され、結果として「幻覚」がもたらされる可能性があります。汎用的な基盤モデルのトレーニングおよび調整テクニックは今後も改善され続け、問題を引き起こすような幻覚は減少していくはずです。しかしながら、あらゆるケースに対応できる、完全な 1 つのモデルというものは今後も登場することはないでしょう。
Google Cloud が、専門性が高くデリケートな分野に特化したモデルに投資し続けてきた理由はそこにあります。たとえば、医療やライフ サイエンス向けの Med-PaLM 2 がその一例です。また、Bard も汎用のコラボレーターとして日々進化し続けているほか、Google の各種プロダクトにもジェネレーティブ AI が取り入れられ、ユーザーが状況に適した使い方がしやすいように工夫されています。たとえば、Google Workspace では、ユーザーがドキュメント内のテキストを選択すると、「shorten(短縮)」、「formalize(丁寧な表現)」、「elaborate(詳述)」、「rephrase(言い換え)」というオプションが表示され、簡単かつ的確にプロンプトできるようになっています。また、開発者やイノベーターの間で基盤モデルや AI 対応インフラストラクチャの利用が進むにつれて、カスタムモデルとジョブ指向設計の両方を取り入れた業界特化型のジェネレーティブ AI アプリが数多く登場することが予想されます。
企業における基盤モデルの利用
多くの組織にとって、カスタム アプリは、機密データを処理したり、より高い精度が要求されるユースケースを処理したりするための最良の方法かもしれません。そのアプローチとしては、ジェネレーティブ AI を特定のデータに特化させることで幻覚を抑え、関連性の高い情報を引き出せるようにする、という方法があります。お客様が Generative AI App Builder の Enterprise Search を使用して行っているのと同じです。また、Vertex AI でのジェネレーティブ AI のサポートと同じように、基盤モデルを微調整したり、独自モデルを作成したりすることもできます。もちろん、ここでは、データ主権や、セキュリティ、ガバナンスへの対策は組み込まれています。こうした取り組みをしても、ジェネレーティブ AI のデプロイ後に人間が参加する必要がなくなるわけではありませんが、個々の状況に適した、正確でカスタマイズ性と関連性の高い応答や引用が示されるようになることで検証作業がはるかに楽になり、利便性が高まります。企業が取り入れるべきベスト プラクティスが徐々に登場
急速に台頭している技術であるため、ジェネレーティブ AI の最良のアプローチは変化し続けており、前述のニューヨークの弁護士の話が示すように、人々はまだこの技術との関わり方を学んでいる段階です。一方で、この技術の導入リスクやアンチパターンがある程度明確になり、対策が進むにつれて、大企業の間でジェネレーティブ AI への投資が活発化してきています。こちらのブログ記事では、Google Cloud が Adore Me、Canva、Character.AI、Deutsche Bank、Instacart、Orange、Replit、Uber、Wendy’s などの企業と協力し、革新的なジェネレーティブ AI のユースケースに幅広く取り組んでいる様子を紹介しています。本シリーズでこれまで述べてきたように、導入を成功させる秘訣は、適切なユースケースに的を絞ることと、必要なプラットフォーム機能に投資することです。また、本記事でも触れているように従業員への教育も不可欠ですので、Google Cloud が最近公開したジェネレーティブ AI の各種トレーニング リソースもぜひ併せてご覧ください。