数は力なり!テンセントが明らかに:エージェントの数が増えるほど、大規模言語モデルはより良くなる

数は力なり!テンセントが明らかに:エージェントの数が増えるほど、大規模言語モデルはより良くなる

Tencent の研究者は、エージェントのスケーリング特性に関する研究を行いました。単純なサンプリングと投票により、インスタンス化されたエージェントの数が増えるにつれて、大規模言語モデル (LLM) のパフォーマンスが向上することがわかりました。初めて、幅広いシナリオにおけるこの現象の普遍性、他の複雑な方法との直交性を検証し、その背後にある理由を研究し、スケーリングの力をさらに促進する方法を提案します。


  • 論文タイトル: エージェントを増やすだけで十分
  • 論文アドレス: https://arxiv.org/abs/2402.05120
  • コードアドレス: https://github.com/MoreAgentsIsAllYouNeed/More-Agents-Is-All-You-Need

この論文では、テンセントの研究者らが、単純なサンプリングと投票の方法により、複雑なマルチ LLM エージェント コラボレーション フレームワークや迅速なエンジニアリング手法を必要とせずに、大規模言語モデルのパフォーマンスがインスタンス化されたエージェントの数に応じて向上し、スケーリング特性を示すことを発見しました。さらに、この方法は既存の複雑な方法と直交しており、組み合わせることで LLM をさらに強化することができ、強化の程度はタスクの難易度に関係します。この論文は、Raw エージェント (複雑なプロンプト エンジニアリングとコラボレーション フレームワークに依存しない LLM エージェント) のスケーリング特性に関する最初の研究です。この研究は、さまざまな LLM ベンチマークで包括的な実験を行い、この発見の一般性を検証し、その発生を促進できる戦略を研究します。コードは現在オープンソースです。

複数の小さなモデルが大きなモデルを上回る

この論文では、LLM の自己統合、異種 LLM 統合、複数の LLM エージェントのコラボレーション フレームワークに関する研究など、LLM 統合に関する多くの関連研究について説明し、提案された方法と比較しています。この論文では、より包括的な研究と分析が行われていることがわかります。

インスタンス化されたエージェントの数が増えるにつれて、大規模言語モデルのパフォーマンスがどのように向上するかを研究します。この論文では、単純なサンプリングと投票の方法を採用しています (著者は「単純 (st)」という用語を使用しており、この方法が最も単純な方法の 1 つであると考えていることを示しています)。この方法は、既存の複雑な方法と直交的に組み合わせることができることに注目すべきです。それは 2 つの段階に分けられます:

  • タスク クエリを単一の LLM または複数の LLM エージェントのコラボレーション フレームワークに入力して、複数の出力を生成します。
  • 最終結果は多数決で決定される

この論文では、Llama2 および GPT シリーズからさまざまなサイズの言語モデルを選択して評価しており、タスク データセットは推論や生成などの複数の分野をカバーしています。実験結果によると、すべてのタスクとさまざまなタイプおよびサイズの LLM において、インスタンス化されたエージェントの数に応じて LLM のパフォーマンスが向上されることがわかっています。

たとえば、GSM8K タスクのパフォーマンスは 12% ~ 24% 向上し、MATH では 6% ~ 10% 向上します。興味深いことに、複数の小さな LLM を統合すると、より大きな LLM のパフォーマンスに到達したり、それを超えたりすることがあります。たとえば、複数の Llama2-13B を統合すると、GSM8K で 59% の精度が達成され、単一の Llama2-70B の 54% の精度を上回ります。

さらに、著者らは他の方法との互換性についても調査しました。これらの方法は実装方法が異なりますが、組み合わせて使用​​するとパフォーマンスをさらに向上させることができ、インスタンス化されるエージェントの数が増えるほどパフォーマンスの向上が大きくなるという現象とも一致しています。実験結果では 1% から 27% の範囲でゲインが示されており、この単純なアプローチを他の方法と直交的に使用することで LLM のパフォーマンスをさらに向上できることを示しています。

LLama13Bに基づく

LLama70B に基づく

GPT-3.5-Turbo ベース

さらに、この論文では、パフォーマンスの向上と問題の難易度の関係も分析しています。

  • 本質的な難易度: タスクの本質的な難易度が増加すると、パフォーマンスの向上 (つまり、相対的なパフォーマンスの向上) も増加しますが、難易度が一定のレベルに達すると、向上は徐々に減少します。これは、タスクが複雑すぎると、モデルの推論能力が追いつかなくなり、パフォーマンス向上の限界効果が減少する可能性があることを示唆しています。
  • ステップ数: タスクを解決するために必要なステップ数が増えると、パフォーマンスの向上も増加します。これは、複数ステップのタスクでは、エージェントの数を増やすとモデルが各ステップをより適切に処理できるようになり、全体的なタスク解決パフォーマンスが向上することを示しています。
  • 事前確率: 正解の事前確率が高いほど、パフォーマンスの向上が大きくなります。つまり、正解の可能性が高い状況では、エージェントの数を増やすとパフォーマンスが大幅に向上する可能性が高くなります。

ノード: ステップ、破線: 可能な代替ステップ。ノードの深さ: ステップ数、色の強度: 固有の難易度のレベル。この図は、タスクの複雑さがこれらの次元にわたってどのように測定されるかを読者が理解するのに役立ちます。

これに基づいて、この論文では、この方法の有効性をさらに向上させるための 2 つの最適化戦略を提案しています。

  • 段階的なサンプリングと投票: このアプローチでは、タスクを複数のステップに分割し、各ステップでサンプリングと投票を適用して累積エラーを減らし、全体的なパフォーマンスを向上させます。
  • 階層的サンプリングおよび投票: この方法では、低確率のタスクを複数の高確率のサブタスクに分解し、階層的に解決します。異なるモデルを使用して、異なる確率のサブタスクを処理し、コストを削減できます。

最後に、コストを削減するためにサンプリングフェーズを最適化することや、LLM 幻覚の潜在的な悪影響を軽減するメカニズムの開発を継続することなど、今後の作業の方向性が提案され、これらの強力なモデルの展開が責任を持って有益であることを保証します。

<<:  CPU、TPU、GPU、DPU、QPUについて学ぶ

>>: 

ブログ    
ブログ    
ブログ    

推薦する

...

人工知能トレーナー、ドローンパイロット…聞いたことのない「新しい職業」が登場している

社会における分業がますます洗練されていくにつれ、まるで種の進化のように、新しい職業が次々と生まれ、中...

英国の消費者団体が警告:AIチャットボットがオンライン詐欺をよりプロフェッショナル化

10月28日、英国の消費者団体Which?が現地時間金曜日に発表した最新の調査結果によると、犯罪者は...

AI導入における7つの最大の障壁とその解決方法

COVID-19 により、企業はデジタル変革の取り組みを数か月、場合によっては数年も加速させるようプ...

最高裁:アプリは顔情報を収集・処理するためにユーザーの個別の同意が必要

最高人民法院研究室民事部の陳龍野部長は、一部のモバイルアプリケーション(APP)はしばらくの間、パッ...

GAN が「思考を偽装」してネイチャー誌に登場: 初の合成神経活動データ

[[436236]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

...

人工知能の継続的な発展により、ロボットが人間に取って代わり、あらゆる労働を行うようになるのでしょうか?

[[385749]]写真はロボット最近、メディアの報道によると、人類の生存を脅かすと言われる米国の...

...

人工知能時代の罠を回避し、実装を実現する方法

つい最近、カリフォルニア大学バークレー校で活躍している、インターネットで有名な無人食品配達車「Kiw...

...

2021年の新ドローンの在庫

[[441702]]時は経つのが早く、2021年も過ぎ去りつつあります。今年を振り返ると、疫病の影響...

センスタイムは香港証券取引所に上場し、最悪の時期から脱却した。

【51CTO.comオリジナル記事】著者: 張傑本日2021年12月30日、SenseTimeの2...

コンピュータービジョンにおける次の大きな進歩はどこから生まれるのでしょうか?

翻訳者 | ブガッティレビュー | Chonglou 1950 年代のコンピューター ビジョンの最初...

なぜ2G/3GとAIは火花を散らすことができないのでしょうか?この論文で答えが分かります

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...