アメリカのAI企業の優位性を打ち破り、AI数学オープンソースモデルでアベルが1位に

アメリカのAI企業の優位性を打ち破り、AI数学オープンソースモデルでアベルが1位に

ChatGPTに代表される大型モデル製品は新たな産業革命を先導し、国内外の機関が関連技術研究に積極的に取り組むよう促しました。過去数ヶ月間の技術競争において、国産の大型モデルはテキスト理解と知識理解の課題で優れた成績を収めており、優秀な「文系学生」と言える。

しかし、複雑な数学的推論や計算、物理モデリング、科学的発見などの「科学」分野では、大規模モデルの研究はまだ満足できるレベルに達しておらず、アメリカのトップテクノロジー企業(OpenAI、Google、Anthropic)と比べると、依然として大きな差があります。例えば、数学的推論の権威ある評価セットであるGSM8KとMATHでは、アメリカのAI企業が常に上位を占めており、その主導的地位を誇示しています。

このような状況の中で、上海交通大学の生成人工知能研究グループ(GAIR)は積極的に困難を克服し、数学計算モデル「Abel」を開発してオープンソース化し、複数のリストでオープンソース部門の1位にランクされました。これは、国内外の大学チームによって立ち上げられた最初の SOTA 数学オープンソースモデルです。


  • プロジェクトホームページ: https://GAIR-NLP.github.io/abel
  • オープンソースモデル: https://github.com/GAIR-NLP/abel

「中国に戻る前に、私はMetaの非常に優れた科学者たちとLIMAという研究で協力しました。この研究では、わずか1,000のサンプルを使用して、モデルをGPT4に近いレベルまでトレーニングしました。しかし、この『少ないほど良い』という考え方は、数学的推論など、すべてのタスクシナリオで検証されていません。当時、これが後悔となり、大規模なモデルに数学をうまく学習させる方法に非常に興味を持つようになりました」と、上海交通大学生成人工知能研究グループの責任者であり、Abelプロジェクトの責任者でもある劉鵬飛氏は語った。 「アベルは、ノルウェーの偉大な数学者ニールス・ヘンリク・アベルの代数と解析における先駆的な業績を称えるために作られました。代数は現在のモデルで比較的うまく解ける分野ですが、まだ道のりは長いです。」

モデルのパフォーマンス

表1: 🔒は独自のモデル、🌍はオープンソースのモデル、🎓は大学(企業ではなく)で開発されたモデルを表します。ここではツール(Pythonなど)を使用しないモデルのみを検討します。GAIRMath-Abelがこのチームにモデルを提案しました。

GAIRMath-Abelプロジェクトでは、著者らは、

  • ツールは使用しない
  • 数学の大規模な事前学習データは使用されていない
  • 報酬モデルは使用されていない
  • 人間のフィードバックによる強化学習(RLHF)は使用されていない
  • 教師あり微調整(SFT)のみを使用する

Abel は、GSM8k (83.62) と MATH (28.26) の権威ある評価セットで、オープンソースの数学的モデル (外部ツールを使用せず) として最高の結果を達成しました。具体的には、次のとおりです。

  • GSM8Kのパフォーマンスは83.62に達し、PaLM-1、Minerva(Google)、Claude-instant(Anthropic)、ChatGPT(OpenAI)など、多くの海外メーカーの優れたモデルを上回り、Googleの最新モデルPaLM-2-Flanにわずか1パーセントポイント遅れをとっています。また、すべてのオープンソースの国内モデルよりも大幅に高いです。
  • 難しい数学競技問題では、Abel は 28.26% の正解率 (GPT4 は 42.5%) を達成し、他のオープンソース モデルを大きくリードし、これまでの最高のオープンソース モデルを 5 パーセント ポイント以上上回りました。
  • 7B モデルと 13B モデルは、GSM8K と MATH のオープン ソース モデルの中で、大きな利点を備え、最高のパフォーマンスを達成しました。
  • Abel はリストのトップ 10 のうち 3 つの位置を占めており、大学が主導する唯一のプロジェクトです (他のプロジェクトはすべてスター スタートアップまたは大手テクノロジー企業です)。
  • 私たちのアプローチを使用すると、GSM8K と MATH で優れた結果を達成できるだけでなく、新しいデータセット (TALSCQ-EN) が提供されたときに最先端のパフォーマンス (SOTA) にすぐに到達し、商用モデルの MathGPT と GPT4 を簡単に上回ります。

優れたパフォーマンスに加えて、このプロジェクトでは次のことも明らかになりました。

  • 監督下での微調整の威力は著しく過小評価されており、研究者は当然の畏敬の念と注意をもってこのプロセスに取り組むべきである。
  • 優れた数学的問題解決能力は、教師ありの微調整を通じて十分に達成することができ、この方向での将来の探求においてより想像力豊かな可能性につながるでしょう。

トレーニング方法

アベルを訓練するために、チームは、監督下で細かく調整されたベビーシッター戦略​​である「親による監督」を提案しました。

親の監督の核となる概念は、大きなモデルを微調整する際には敬意と注意を払うべきであるということです。これは、親が子供を無理やり成長させようとせず、最もわかりやすく慎重に子供に教えなければならないのと同じです。データとデータの表示方法が異なれば教育方法も異なるため、研究者は大きなモデルを教えるための最善の方法を慎重に選択する必要があります。

実際、GAI のコンテキストでは、データ構造エンジニアリングは新しいパラダイムになっています。データ処理の効果的な方向は、さまざまな下流タスクにおける大規模モデルの成功に重大な影響を及ぼします。保護者の監督の概念に基づくと、複雑な推論タスクで良好な結果を達成するための鍵は、教師あり学習にサンプルを無差別に使用するのではなく、トレーニング データを慎重に計画することです。

最も正確で注意深い監視を通じて、複雑な推論の下流タスクで大規模なモデルを成長させるのに役立ちます。教師あり微調整では、トレーニング サンプルには正解が含まれているだけでなく、事前トレーニング済みモデルの知識から正解を取得する方法もモデルに伝える必要があります。さらに、言語モデルの知識が真の答えを得るのに不十分な場合、教師あり学習によってモデルが知識のギャップを素早く埋められるようになります。

制限と計画

Abel 数学モデルは、評価されたいくつかのデータ セットで良好なパフォーマンスを発揮しますが、開発者はその欠点もまとめています。

  • 過剰適合: 堅牢性分析と数学的に生成する AI の固有の脆弱性 (多数決などの高度なデコード戦略が必要になることが多い) を考慮しても、パフォーマンスを向上させるために SFT サンプルの構築に過度に依存すると、必然的にモデルの過剰適合につながる可能性があります。 (ただし、オーバーフィッティングは現在のプロジェクトの主要な焦点ではありません。さまざまな拡張トレーニング データにオーバーフィッティングしても、MATH データセットなどの複雑な数学的推論タスクで好ましいテスト結果を達成することは依然として困難であるためです。) それでも、チームはさらに広範な堅牢性分析を実施し、モデルを数学的ジェネラリストに変換し、より包括的なクロスドメイン一般化分析を実施できるトレーニング方法を積極的に模索する必要があります。
  • 一般化可能性: 優れた数学モデルは、GSM8K および MATH データセットの問題の解決に限定されるべきではありません。さまざまな知識領域を評価し、さまざまな種類の応答 (複数の選択、真偽、証明、算術など) を必要とする問題を含む、さまざまな種類の問題を処理できる必要があります。現在のモデルは、これらの多様なシナリオに一般化できるほど強力ではありません。
  • 一般化可能性: 最終的には、大規模モデルによって可能になる数学的推論機能が、医学、法律、物理学、化学など、さまざまな分野のチャットボットに統合される可能性があると著者らは予想しています。 AGI を実現するための鍵は、強力な数学モデルの力を他のモデルに組み込むことにあります。これは、現在のプロジェクトではまだ検討されていないことです。
  • 多言語対応: 現在のモデルのトレーニング データとベース モデルでは、英語以外の言語で応答を提供する能力が制限されています。
  • 高度な技術: 現在のモデルは教師あり微調整 (SFT) に重点を置いており、報酬モデル、RLHF (人間からのフィードバックからの強化学習)、ツール呼び出しなどの高度な技術は検討されていません。

開発者は、問題のリストをリストアップし、これらの制限と潜在的な解決策を維持するために Github を使用していると述べています。皆様の建設的なコメントやご意見をお待ちしております。

次のステップ

最後に、著者は簡単な図を使って、研究室の次の計画である「アーベル」から「ベルヌーイ」への計画も明らかにしました。

<<:  OpenAI DALL·E 3が登場、ChatGPTと統合、生画像の効果は素晴らしい

>>: 

ブログ    
ブログ    
ブログ    

推薦する

科学者たちは、脳波を3%という低いエラー率で直接テキストに変換する「心を読む」方法を開発した。

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

2021年最新Contrastive Learning(対照学習)主要会議での必読古典論文解釈

みなさんこんにちは。私はDiaobaiです。最近、対照学習が流行っているので、ICLR2020では、...

カスタムデータセットにOpenAI CLIPを実装する

2021年1月、OpenAIはDALL-EとCLIPという2つの新しいモデルを発表しました。どちらも...

...

「AI+コンピューティングパワー」が海外企業に「活力」を与えた

海外に進出する企業は、さまざまな市場のニーズをより正確に理解し、適応するために、大量の国境を越えたデ...

アルゴリズム | 再帰の深い理解、あなたは再帰を誤解しています

再帰は、プログラミングの本で説明するのが最も難しい部分である魔法のアルゴリズムです。これらの本では通...

教育における人工知能の活用方法8つ

AI は教育テクノロジーの分野では以前から使われてきましたが、その導入は遅れています。しかし、COV...

...

...

ChatGPTがまた進化しました!オールインワンツール、ネットユーザー:今日、起業プロジェクトがいくつ消滅したか

ChatGPT は一晩で静かにアップデートされ、数多くの起業家プロジェクトが始動しようとしています。...

国防総省は、今後数日間の出来事を予測するために人工知能を活用している。

海外メディアCNETによると、米軍はビッグデータと人工知能を活用して近い将来の出来事を予測しようとし...

7つの機械学習アルゴリズムの7つの重要なポイント

さまざまなライブラリとフレームワークの助けを借りて、たった 1 行のコードで機械学習アルゴリズムを実...

グラフィカル分散コンセンサスアルゴリズム

本日の記事では、グラフを使用して分散一貫性の実装原則を深く研究し、理解します。まず、自己を見つめ直す...

2021年なのに、出会い系アプリのアルゴリズムはなぜこんなにも悪いのでしょうか?

[[407925]]ビッグデータダイジェスト制作出典: Wiredパンデミックの間、出会い系アプリ...