DeepMindは大規模なモデルで帰納法と演繹法を学習できるようにし、GPT-4の精度は13.7%向上した。

DeepMindは大規模なモデルで帰納法と演繹法を学習できるようにし、GPT-4の精度は13.7%向上した。

現在、大規模言語モデル (LLM) は、特にいくつかの例と中間ステップが与えられた場合に、推論タスクにおいて優れた能力を発揮します。しかし、プロンプト方式は LLM の暗黙の知識に依存することがよくあります。暗黙の知識が間違っていたり、タスクと一致していない場合、LLM は間違った回答を出します。

現在、Google、Mila Institute、その他の研究機関の研究者らが共同で新しい手法を研究しており、LLM が推論ルールを学習できるようにし、Hypotheses-to-Theories (HtT) と呼ばれる新しいフレームワークを提案しています。この新しい方法は、多段階の推論を改善するだけでなく、説明可能で転送可能であるという利点もあります。

論文アドレス: https://arxiv.org/abs/2310.07064

数値推論と関係推論の問題に関する実験では、HtT によって既存のプロンプト メソッドが改善され、精度が 11 ~ 27% 向上することが示されています。学習したルールは、異なるモデルや同じ問題の異なる形式に転送することもできます。

方法の紹介

一般に、HtT フレームワークは、従来の機械学習のトレーニング フェーズとテスト フェーズに似た、帰納フェーズと演繹フェーズの 2 つのフェーズで構成されます。

導入フェーズでは、まず LLM に一連のトレーニング例に基づいてルールを生成し、検証するように求められます。本研究では、CoTを用いてルールを宣言して回答を導き出し、ルールの頻度と正確性を判断し、頻繁に出現して正解につながるルールを収集してルールベースを形成します。

適切なルール ベースができたら、次のステップは、これらのルールを適用して問題を解決する方法を学ぶことです。この目的のために、本研究では演繹フェーズでプロンプトにルールベースを追加し、LLM がルールベースからルールを取得して演繹を実行し、暗黙的推論を明示的推論に変換することを要求します。

しかし、この研究では、非常に強力な LLM (GPT-4 など) でも、すべてのステップで正しいルールを取得するのが難しいことがわかりました。この目的のために、本研究では、LLM のコンテキスト検索機能を強化する XML タグ付けトリックを開発しました。

実験結果

HtT を評価するために、この研究では 2 つの多段階推論問題をベンチマークしました。実験結果は、HtT が少数ショットプロンプト法を改善することを示しています。著者らは、HtT をより包括的に理解するために、広範囲にわたるアブレーション研究も実施しました。

彼らは数値推論と関係推論の問題で新しい方法を評価します。数値推論では、GPT-4 と比較して精度が 21.0% 向上したことがわかりました。関係推論では、GPT-4 は精度が 13.7% 向上し、GPT-3.5 はさらに向上してパフォーマンスが 2 倍になりました。パフォーマンスの向上は主にルールの錯覚の減少から生まれます。

具体的には、以下の表 1 は、算術の基数 16、基数 11、基数 9 のデータセットの結果を示しています。すべての基本システムの中で、0 ショット CoT は両方の LLM でパフォーマンスが最も悪いです。

表 2 は、CLUTRR におけるさまざまな方法を比較した結果を示しています。 GPT3.5 と GPT4 では、0 ショット CoT のパフォーマンスが最も悪いことがわかります。少数ショットのヒント手法では、CoT と LtM は同様のパフォーマンスを示します。平均精度に関しては、HtT は両モデルのヒント方式を 11.1 ~ 27.2% 上回りました。 GPT3.5 は CLUTRR ルールの取得が悪くなく、GPT4 よりも HtT の恩恵を受けていることは注目に値します。これは、CLUTRR のルールが算術よりも少ないためである可能性があります。

GPT4 のルールを使用すると、GPT3.5 の CoT パフォーマンスが 27.2% 向上し、これは CoT パフォーマンスの 2 倍以上となり、GPT4 の CoT パフォーマンスに近づくことは注目に値します。したがって、著者らは、HtT が強い LLM から弱い LLM への知識蒸留の新しい形式として機能できると考えています。

表 3 は、HtT が GPT-4 (テキスト バージョン) のパフォーマンスを大幅に向上させることを示しています。 GPT3.5 では、テキスト入力を処理するときに幻覚ルール以外のエラーが発生することが多いため、この改善は重要ではありません。

<<: 

>>:  GPU の無駄遣いをやめよう: FlashAttention がアップグレードされ、長いテキストの推論速度が 8 倍に向上

ブログ    
ブログ    
ブログ    

推薦する

MIT、失われた古代言語を解読するための新しい機械翻訳アルゴリズムを発表

MITのコンピュータ科学および人工知能研究所(CSAIL)の研究者らは、歴史から長い間失われていた古...

サービスロボットは大きな将来性があり、すぐに何千もの家庭に導入されるだろう

親が子どもの世話をしたり、子どもと遊んだり勉強したり、看護師や介護士の仕事を手伝ったりするロボットに...

...

...

中国人がさらに7,360万ドルの資金調達を実施した!天才プログラマーが共同設立したLeCunの重鎮たちが全員サポート

Perplexity AIは本日、シリーズBの資金調達で7,360万ドルを調達し、評価額は5億2,0...

Google Cloud が AI を活用したパーソナライズされたおすすめ商品をオンライン小売業者向けに提供開始

海外メディアの報道によると、1月22日、Google Cloudは、世界中の小売業者が電子商取引機能...

動的プログラミングアルゴリズムのルーチンをマスターするにはどうすればいいですか?

[[358211]] DP と呼ばれる動的プログラミングは、非常に洗練された複雑なアルゴリズムとい...

MIUI 10の最後の開発バージョンが間もなくリリースされます。MIUI 11も間もなく登場します。

8月22日、MIUIは、より良い最適化効果を実現し、Miファンに優れたシステム体験をもたらすために...

R言語におけるAprioriアルゴリズムの応用

[[193979]] I. コンセプト関連性分析は、大規模なデータセットに隠された意味のあるつながり...

...

...

孫正義氏:今後 30 年の人工知能と IoT(詳細記事)

[[264296]]これは非常に興味深いスピーチです。これはMWCでソフトバンクの孫正義氏が行った...

ポピュラーサイエンス:自動運転車はなぜ制御を失うのか? 「道路の汚れ」が原因か

通常の「道路の汚れ」でも、インテリジェントな自動運転車を混乱させ、1 秒以内に制御を失い車線から外れ...

エネルギー産業の変革、人工知能が次の機会となる

世界のエネルギーシステムは、再生可能エネルギーの発電、電気自動車、エネルギー IoT (EIoT) ...