LLM幻覚問題の徹底レビュー! HITチームの50ページのレビューが公開された

LLM幻覚問題の徹底レビュー! HITチームの50ページのレビューが公開された

幻覚だよ、古い友人よ。

LLM が私たちの視野に入って以来、錯覚の問題は常に無数の開発者を悩ませてきた障害となってきました。

もちろん、大規模言語モデル幻覚の問題に関する研究は数え切れないほど行われてきました。

最近、ハルビン工業大学とファーウェイのチームが、LLM幻覚問題に関する最新の進歩について包括的かつ詳細な概要を提供する50ページのレビューを発表しました。

このレビューでは、LLM 幻覚の革新的な分類方法から始めて、幻覚を引き起こす可能性のある要因を深く探究し、幻覚を検出するための方法とベンチマークの概要を示します。

その中で、幻覚を軽減するための業界で最も代表的な方法は、間違いなく不可欠です。

論文アドレス: https://arxiv.org/abs/2311.05232

次に、このレビューで主に議論されている内容を見てみましょう。

より深く学びたい方は、記事の下部にある参考リンクに移動して、原文を読んでください。

幻覚の分類

まず、幻覚にはどんな種類があるのか​​見てみましょう。

上の写真では、左側が実際の錯覚​​です。 LLM は、月面を歩いた最初の人物は誰かと尋ねられたとき、架空の人物像を作り出し、しかも説得力のある言い方をした。

右側は、テキスト要約モデルの忠実度の問題です。このニュースを見た後、LLM が年を誤って直接要約したことがわかります。

このレビューでは、研究者らは、データ、トレーニングから推論段階までの一連の要因を網羅して、LLM における幻覚の起源を深く分析しました。

この枠組みの中で、研究者たちはデータに関連する潜在的な理由を指摘しています。たとえば、欠陥のあるデータ ソースや最適化されていないデータ利用、事前トレーニングおよびアライメント中に幻覚を引き起こす可能性のあるトレーニング戦略、デコード戦略によるランダム性、推論中の不完全な表現などです。

さらに、研究者らは、LLM における幻覚を検出するために設計されたさまざまな効果的な方法の包括的な概要、および LLM 幻覚に関連するベンチマークの徹底的な概要と、LLM 幻覚の範囲と検出方法の有効性を評価するためのテストベッドを提供します。

下の図は、このレビューに含まれる内容、過去の研究、論文を示しています。

下の図は、LLM 錯視の種類のより詳細な図です。

事実錯覚と忠実性錯覚の下には、さらに詳細な分類もあります。

事実に基づく幻覚:

a) 事実の矛盾

誰が最初に月面に着陸したかと尋ねられたとき、LLM はアームストロングではなくガガーリンであると答えました。このような答えは事実と矛盾しています。ガガーリンは実在した人物であり、捏造されたものではありません。

b) 事実の捏造

LLM はユニコーンの起源を紹介するよう求められたとき、世界にユニコーンのような生き物は存在しないことを指摘せず、代わりに長い文章を書きました。このような現実世界に存在しないものを捏造といいます。

忠実度の錯覚には、指示と回答の不一致、テキストの不一致、論理の不一致などがあります。

a) 指示と回答の不一致

LLM に質問を翻訳するように依頼すると、出力される回答は実際には翻訳なしで質問に答えるものです。そのため、指示と回答の間に矛盾が生じます。

b) テキストの不一致

この種の不一致は、一般化タスクでより一般的です。 LLM は与えられたテキストを無視し、間違った結論を導き出す可能性があります。

c) 論理的矛盾

2x+3=11 という方程式を解くように求められたとき、LLM はまず両辺から 3 を引くと 2x=8 になることを指摘しました。次に、両辺を 2 で割ると、LLM は答え 3 を出力します。

8 を 2 で割ると 3 になるのはなぜですか?

幻覚の仕組み

データ

次に、レビューでは幻覚の原理に関する内容を整理し始めます。

最初のカテゴリはデータの問題です。

誤報と偏見。大規模コーパスの需要が高まっていることから、大量のデータを効率的に収集するためにヒューリスティックなデータ収集方法が使用されます。

このアプローチでは大量のデータが提供されますが、誤って誤った情報が導入され、模倣エラーのリスクが高まる可能性があります。さらに、LLM の学習プロセスに社会的偏見が意図せず持ち込まれる可能性もあります。

これらのバイアスには、主に反復バイアスとさまざまな社会的バイアスが含まれます。

LLM 事前トレーニングの主な目的は、トレーニング分布を模倣することであることに注意してください。そのため、LLM が事実上不正確なデータでトレーニングされると、これらの不正確さをうっかり増幅し、事実上不正確なデータという錯覚につながる可能性があります。

ニューラル ネットワーク、特に大規模な言語モデルには、トレーニング データを記憶する固有の傾向があります。研究によれば、この記憶傾向はモデルのサイズが大きくなるにつれて増加することが分かっています。

しかし、事前トレーニング データに重複した情報がある場合、固有の記憶能力が問題になります。この繰り返しにより、LLM は一般化から記憶へと移行し、最終的に繰り返しバイアスを生み出します。つまり、LLM は繰り返しデータの想起を過度に優先し、幻覚を引き起こし、最終的には望ましいコンテンツから逸脱することになります。

これらの偏りに加えて、データ分布の違いも幻覚の潜在的な原因となります。

次の状況は、LLM には知識の限界があることが多いということです。

大規模な事前トレーニングコーパスは JLM に広範な事実知識を提供しますが、それ自体には限界があります。この制限は、主に最新の事実知識と専門分野の知識の欠如という 2 つの側面に反映されています。

LLM は一般的なドメインのさまざまなダウンストリーム タスクで優れたパフォーマンスを示していますが、これらの汎用 LLM は主に広範な公開データセットでトレーニングされているため、専門ドメインでの専門知識は関連するトレーニング データが不足しているために本質的に制限されています。

その結果、医療や法律の問題など、ドメイン固有の知識を必要とする問題が提示されると、これらのモデルは、多くの場合、捏造された事実の形で、重大な幻覚を示す可能性があります。

さらに、事実に関する知識が古くなっていることもあります。ドメイン固有の知識の欠如に加えて、LLM の知識境界のもう 1 つの固有の制限は、最新の知識を習得する能力が限られていることです。

LLM に含まれる事実の知識には明確な期限があり、時間の経過とともに古くなる可能性があります。

これらのモデルは、一度トレーニングされると、内部の知識は更新されません。

そして、私たちの世界がダイナミックかつ常に変化していることを考えると、これは課題となります。 LLM は、自分の時間枠を超えたドメイン知識に直面した場合、事実をでっち上げたり、過去には正しかったかもしれないが今では時代遅れになっている答えを提供したりして、「なんとか切り抜ける」ことを試みることがよくあります。

下の図の上部では、LLM が特定の領域 (フェニルケトン尿症) に関する専門知識を欠いていることが示されています。

後半は、時代遅れの知識の最も単純な例です。冬季オリンピックは2018年に韓国の平昌で、2022年に北京で開催されます。 LLM には後者に関する知識ベースがありません。

LLM におけるデータ関連の錯覚は、主にデータソースの誤りとデータの不適切な利用から生じていることがわかります。データソース内の誤情報や固有の偏りは、模倣された偽情報を広めるだけでなく、偏った出力をもたらし、さまざまな形の幻覚を引き起こします。

特定の分野の知識を扱ったり、急速に更新される事実の知識に遭遇したりすると、LLM が持つ知識の限界が明らかになります。

データの利用という点では、LLM はしばしば誤った相関関係を捉え、知識 (特にロングテール情報) や複雑な推論シナリオを思い出すのが困難であり、錯覚をさらに悪化させます。

これらの課題は、データの品質を改善し、モデルが事実の知識をより効果的に学習して思い出す能力を強化する緊急の必要性を浮き彫りにしています。

電車

さて、このレビューでは、LLM のトレーニング段階に注目します。

LLM トレーニング プロセスは、主に次の 2 つの段階で構成されます。

事前トレーニング段階では、LLM は一般的な表現を学習し、広範な知識を獲得します。

アライメント フェーズでは、LLM を調整して、ユーザーの指示を基本的な人間の価値観とよりよく一致させます。このプロセスにより LLM は適切なパフォーマンスを発揮しますが、これらの段階で何らかの欠陥があると、意図せず幻覚が発生する可能性があります。

事前トレーニングは LLM の基本的な段階であり、通常はトランスフォーマーベースのアーキテクチャを採用して、大規模なコーパスに対して因果言語モデリングを実行します。

しかし、固有のアーキテクチャ設計と研究者が採用する特定のトレーニング戦略により、幻覚に関連する問題が発生する可能性があります。前述のように、LLM は通常、トランスフォーマーベースのアーキテクチャを採用し、GPT によって確立されたパラダイムに従います。因果言語モデリングの目的を通じて表現を取得します。OPT や Llama-2 などのモデルはこのフレームワークの例です。

構造上の欠陥に加えて、トレーニング戦略も重要な役割を果たします。自己回帰生成モデルのトレーニングと推論の違いが、露出バイアスの現象につながることは注目に値します。

アライメント段階は、通常、教師あり微調整と人間からのフィードバックによる強化学習 (RLHF) という 2 つの主なプロセスで構成され、LLM の機能を解き放ち、人間の好みと一致させるための重要なステップです。

アライメントにより LLM 応答の品質が大幅に向上する可能性がありますが、錯覚を生み出すリスクも伴います。

それは主に、能力の不一致と信念の不一致という 2 つの側面に分けられます。

幻覚を検出するにはどうすればいいですか?

LLM で幻覚を検出することは、生成されたコンテンツの信頼性と信憑性を確保するために重要です。

従来の測定は主に単語の重複に依存しており、信頼できる内容と幻覚内容の微妙な違いを区別することができません。

この課題は、LLM 幻覚に対するより高度な検出方法の必要性を浮き彫りにしています。研究者らは、これらの幻覚の多様性を考慮すると、検出方法もそれに応じて異なると指摘している。

ここに一例を挙げます。

外部の事実を取得する

下の図に示すように、LLM 出力内の不正確な事実を効果的に指摘するには、モデルが生成したものを信頼できる知識ソースと直接比較する方が直感的な戦略です。

このアプローチは、ファクトチェックタスクのワークフローによく適合します。しかし、従来のファクトチェック方法では、実用上の理由から単純化された仮定を採用することが多く、複雑な現実世界のシナリオに適用するとバイアスが生じる可能性があります。

これらの限界を認識して、一部の研究者は現実世界のシナリオ、つまり時間制限のある、キュレーションされていないオンラインソースから証拠を取得することに重点を置くことを提案しています。

彼らは、元の文書の検索、きめ細かい検索、真正性の分類など、複数のコンポーネントを統合した完全に自動化されたワークフローを開発しました。

もちろん、他の多くの研究者も、長いテキスト生成に特化したきめ細かい事実測定である FACTSCORE などの他の方法を提案しています。

その他の方法としては、下の図に示すように、不確実性の推定があります。

下の図に示すように、忠実度錯覚の検出に関する関連研究も数多くあります。

これらには、生成されたコンテンツとソース コンテンツ間の事実上の重複を検出することで忠実度を評価する、事実に基づくメトリックが含まれます。

分類器ベースのメトリック: トレーニングされた分類器を使用して、生成されたコンテンツとソース コンテンツ間の関連度を区別します。

QA ベースの測定方法: 質問応答システムを利用して、ソース コンテンツと生成されたコンテンツ間の情報の一貫性を確認します。

不確実性の推定: モデルが生成した出力に対するモデルの信頼性を測定することで忠実度を評価します。

プロンプトベースの測定方法: LLM を評価者として機能させ、特定のプロンプト戦略を通じて生成されたコンテンツの忠実度を評価します。

その後、HIT チームは幻覚を軽減するためのより最先端の方法をまとめ、上記の各問題に対する実行可能な解決策を提供しました。

要約する

要約すると、論文の最後でハルビン工業大学の研究者らは、この包括的なレビューでは、大規模言語モデルにおける幻覚現象について詳細な研究を実施し、その根本原因の複雑さ、先駆的な検出方法と関連ベンチマーク、効果的な緩和戦略を掘り下げたと述べています。

開発者はこの問題に関して大きな進歩を遂げていますが、大規模な言語モデルにおける幻覚は依然として継続的な懸念事項であり、継続的な研究が必要です。

さらに、この論文は、安全で信頼できる AI を推進するための指針としても役立ちます。

HITチームは、幻覚という複雑な問題の探求を通じてこれらの人々に貴重な洞察を提供し、より信頼性が高く安全な方向へのAI技術の開発を促進したいと述べた。

<<:  ChatGPT Plusアカウント登録が停止されました!ネットユーザーは激怒、アカウントの売買やレンタルがネットワーク全体で高騰中

>>: 

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

機械学習に必須: TensorFlow を使用するための 11 のヒント

[[326623]] TensorFlow 2.x は、モデルの構築と全体的な使用において多くの利便...

自動運転車の未来に関するレポート:乗用車の95%が消滅し、7兆ドルの旅行市場に4つの大きなチャンスがある

[[199334]]自動運転車は20年以内に世界経済を劇的に変え、保険、メディア、セキュリティ、物流...

2019年に主流となった10のAIテクノロジー

1956年にコンピューターの専門家ジョン・マッカーシーが「人工知能」という言葉を作り出して以来、わず...

タイムトラベルが現実になる?人間はワームホールを通じて「時空の端」に到達できるかもしれないし、量子AIは機械に意識を与えるだろう

[[436484]]タイムトラベルは本当に可能なのでしょうか?新たな研究によれば、今から数千年後には...

これは機械学習ツールに関する最も包括的なハンドブックかもしれません。

[[419906]]私はこれまで、人工知能とデータサイエンスのオープンソース プロジェクトを数多く...

ロボットR2-D2は50年後に人間の仕事を完全に置き換えるでしょうか?

[51CTO.com クイック翻訳] 海外メディアの報道によると、誰かが設計しているロボットがあな...

モデルはわずか7M:軽量で高精度な顔認識方式DBFace

わずか 7M サイズのこの顔認識モデルは、世界最大の自撮り写真に写っているほぼすべての人物を認識しま...

GitHub で最も人気のあるオープンソース機械学習プロジェクト 28 件: TensorFlow がトップ

機械学習は現在、業界で徐々にホットな話題になりつつあります。20年以上の開発を経て、機械学習は現在、...

...

機械学習の背後にある数学的なバックボーンを理解するのに役立つ5冊の本

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

...

...

微積分の最終試験に希望があります! AIが方程式を解くのを手伝います

最近、Facebook AI は、記号推論を使用して高度な数式を解き、その精度が Mathemati...

機械は人間に取って代わるでしょうか?人工知能技術の倫理的リスクを解明する

現在の人工知能技術の発展は、主にコンピュータを媒体として活用し、自動化技術の発展を促進しています。デ...

...