この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 大型モデルの錯視問題に対する新しい解決策があります! Meta AI Lab は「分割統治」ソリューションを提案しました。 このソリューションにより、 Llama-65B が出力する情報の精度は 2 倍になり、 ChatGPT を上回りました。 いわゆるビッグモデル錯覚とは、一見合理的に思えるが完全に間違ったコンテンツを出力することです。 今回Metaが提案した「Verification Chain(CoVe)」は、「Chain of Thought(CoT)」に似たチェーン方式です。 違いは、「ステップバイステップ」の思考チェーンは論理的推論に重点を置いているのに対し、検証チェーンは事実情報に重点を置いていることです。 これを読んだネットユーザーの中には、この検証チェーンがChatGPTでコードを書くときの科学的手法と非常に似ていることに気づいた人もいました。 では、「検証チェーン」方式とは具体的にどのようなもので、何が「検証」されているのでしょうか? 答えを分解し、分割して征服する検証チェーンの中心的な考え方は、検証対象となるコンテンツの大きなセクションを小さな質問に分解することです。具体的なプロセスは次のとおりです。 まず、モデルは、ユーザーからの質問に基づいて通常どおり応答を生成します。 次に、生成された応答内容に基づいて、その中の各情報に対する一連の検証質問が生成されます。 次に、モデルはこれらの質問に独自に回答し、その結果に基づいて最初の回答を調整して最終結果を取得します。 簡単な例として、19 世紀の米墨戦争の主な原因は何であったかをモデルに尋ねたいとします。 モデルは、イベントがいつ発生したか、その前に何が起こったかを回答します。 次に、これらの出来事がいつ起こったかを一つずつ尋ねます。 その結果、モデルは言及した項目の 1 つが時間的に遠すぎることを発見し、調整して最終的な答えを出したのです。 その中で、質問の生成と検証は最も重要なリンクです。この目的のために、研究者は4つの具体的な方法を提案しました。
これら 4 つのモデルはますます詳細化しており、精度もますます高くなっています。 △ 赤から始まり、4つの色は、No CoVe、Joint、Factored、Factor+Reviseを表します。 では、質問を分割するとなぜモデルの精度が向上するのでしょうか? まず、細分化された質問は、全体のタスクよりも簡単です。エッセイの質問は、質問と回答、または複数の選択肢や真偽の質問になります。質問はより単純になり、正確率が向上します。 さらに、問題を細分化することで、モデルは間違った答えを何度も繰り返すのではなく、実際に再考できるようになります。 では、検証チェーン方式の効果は何でしょうか? 情報の正確さはChatGPTを上回るこの問題を探るために、研究者らはLlamaを使用して3つのテストタスクからなるテストを実施しました。 最初のステップは、特定の場所で生まれた有名人や特定の業界で働いていた有名人などの情報をリストすることです。 このタスクでは、研究者は、より単純な Wikidata とより難しい Wiki-Category リスト (Wikipedia から抽出) の合計 2 つのデータセットをテストしました。 結果によると、2 段階認証チェーンのサポートにより、650 億のパラメータを持つ Llama の精度は、単純な問題では 0.17 から 0.36 に2 倍以上に向上し、複雑な問題でも精度がほぼ 2 倍になりました。 次は「クローズドドメインの質問応答」問題です。研究者は、MultiSpanQAデータセットから複数の不連続な情報を抽出して質問しました。 たとえば、「世界初の出版社を設立したのは誰ですか、何年ですか?」(答えはヨハネス・グーテンベルク、1450年)。 その結果、Cove は Llama の精度を約 20% 向上させました。 3 番目のタスクは「長文の伝記生成」です。質問は「(名前)の経歴を教えてください」で、評価には FactScore データセットが使用されます。 その結果、Factor+Reviese モードでは、検証チェーンなしモードに比べて精度が大幅に向上するだけでなく、 ChatGPT を上回ります。 この研究に興味のある方は、論文で詳細を読むことができます。 論文アドレス: https://arxiv.org/abs/2309.11495 |
>>: 技術革命は初期の成果を達成した:AIはサプライチェーン管理の分野で2つの地位を獲得した
[[385301]]核となる考え方は、次のように簡単にまとめることができます。ニューラル ネットワー...
今日のスマートフォンやノートパソコンに搭載されている顔認識機能のおかげで、顔認識テクノロジーの概念は...
最近、命令微調整 (IFT) は、命令に従う能力を獲得するための大規模言語モデル (LLM) の事前...
多くのことは国や地域の規制の対象となりますが、人間の表情を認識する能力はいかなる規制も超越しています...
3月6日、国際電気通信連合と中国情報通信研究院が共催し、人工知能産業発展連盟(AIIA)とZTEが主...
[[434362]] 11月3日、Facebookは写真のタグ付けに顔認識機能を使うのをやめると発表...
新型コロナウイルスの世界的大流行により、各国で厳しいロックダウン措置が取られ、多くの人が外出を控えざ...
論文タイトル: 分子特性予測のための自動 3D 事前トレーニング論文リンク: https://arx...
恒生銀行とその子会社である恒生聚源は6月28日、金融インテリジェントアシスタントPhotonや新しく...
[[204864]]機械学習 (ML) は、確率論、統計、近似理論、凸解析、アルゴリズム複雑性理論...
ほとんどの人がサプライチェーン技術について考えるとき、パッケージングはおそらく最初に思い浮かぶも...
[[245530]]科学技術の急速な発展は、社会の変化に大きな影響を与えます。第四次産業革命は、人工...