GPT-4 コードインタープリターをベンチマークし、CUHK の最新の研究では「大きな動き」が発表されました。 彼らは、競技レベルの「問題バンク」である「Math」において、数学的能力が GPT-4 を直接上回る MathCoder と呼ばれる大規模なモデルを開発しました。 △画像がアルパカなのは、MathCoderの基礎モデルがアルパカ科のものだからです。 これは、コードをシームレスに統合する機能によって実現されます。 数学の問題に遭遇した場合、自然言語推論を使用するだけでなく、コードを自動的に記述して実行し、モデル化して数式や方程式を導出することもできます。 これは確かに強力な GPT-4 コード インタープリターと同じように動作します。 実際の評価では、MathCoderはGPT-4を上回っただけでなく、MATHとGSM8Kの2つの主要なデータセットでオープンソースLLMのSOTAを達成することに成功しました( 8月にリリースされたばかりのWizardMathを上回りました)。 この「新しい王」はどのようにして誕生したのでしょうか? GPT-4 コードインタープリターのベンチマーク一般的に、大規模モデルの数学的推論能力を向上させるために、HKU によるこの研究では、GPT-4 コードインタープリターの利点と動作原理を研究し、オープンソース言語モデルを微調整する方法を提案しました。 このアプローチにより、最終的には大規模なモデルをコードとシームレスに統合し、コードを使用して数学的な問題を解決できるようになります。 具体的には、彼らはまず、高品質の数学の問題を生成できるデータセット「MathCodeInstruct」を提案しました。 データセットは次の 2 つの部分で構成されています。 シードデータ( D0 ) :主にGSM8KとMATHをベースに、GPT-4を使用して回答を収集します。 補間データ(D1) : GPT-4 が提案した「質問補間プロンプト」と呼ばれる方法に基づいてデータを生成します。 次の図に示すように: 例 1 と 2 はそれぞれ GSM8K と MATH から取得されています。例 1 は単純ですが、例 2 はより困難です。GPT-4 が行う必要がある「補間」は、例 1 よりも困難ですが、例 2 よりも単純な新しい問題を生成することです。 上記の 2 種類の問題に基づいて、MathCodeInstruct データ セットには最終的に合計 80,000 個の数学問題が収集されました。 下の表が示すように、これは業界の他のデータセットよりもわずかに小さいです。 他のデータセットと比較すると、GSM8K と MATH という 2 つの重要なデータセットの欠点を補い、より幅広い難易度の問題をいくつか提供することで、データセットの一般化能力を高めていることが特徴の 1 つです。 2 つ目の特徴は、データセット内の各質問に、自然言語推論ベースの部分とコードベースの解決部分(実行コードとコード出力結果を含む)の両方が含まれていることです。 下の図に示すように、これは上記の GPT-4 によって生成された「補間」問題に対する解決策です。 データセットが準備された後、チームはカスタマイズされた教師あり微調整および推論方法を提案し、最終的に Llama-2 と Code Llama 上で MathCoder を微調整しました。 具体的には、この方法では、特別なトークン(<|text|>、<|code|>、<|execution|>)を使用して、トレーニング データセットのどの部分が自然言語、コード、または結果であるかを識別し、モデルがこれらの特別なタグで区切られた自然言語とコードを生成することを学習できるようにします。 推論中、この方法は動的実行の結果をモデルの以前の予測に追加します。 次に、この新しいバージョンの入力に基づいて、次のトークンと最終的な実行結果を自己回帰的に予測し続けます。 このようにして、モデルは実行結果を「確認」し、何度も推論を続けることができるようになると著者らは述べている。 最終的に、このアプローチにより、微調整されたモデル MathCoder は GPT-4 コード インタープリターと同様の方法で動作できるようになります。 評価では、MathCoder は MATH データセットと GSM8K データセットでそれぞれ 45.2% と 83.9% という良好なスコアを達成しました。 この結果は次のことを証明します: まず、ChatGPT-3.5やPaLM-2など9つのクローズドソースモデルを上回り、主に数学競技問題で構成されたMATHセットではGPT-4を上回りました。 2 つ目は、数学分野で最強のオープンソース モデルである WizardMath を打ち負かし、新たなオープンソースのベスト モデルとなったことです。 しかし、3 番目に、MathCoder は模倣はしたものの、上回っていません。これら 2 つのデータ セットでは、MathCoder はGPT-4 コード インタープリターとまだ一定のパフォーマンス ギャップがあります(69.7% と 97% の高スコア) 。 著者についてこの研究には 10 人の著者がおり、そのうち 2 人は香港城市大学から、残りは香港中文大学からである。 共同筆頭著者は、Ke Wang、Houxing Ren、Aojun Zhou、Zimu Lu、Sichun Luo、Weikang Shi の 6 名です。 責任著者は、上海人工知能研究所にも勤務する香港中文大学の電子工学科准教授、李紅生氏です。 論文アドレス: https://arxiv.org/abs/2310.03731 |
<<: 強化学習の父がAGIスタートアップ業界に参入!伝説のプログラマー、カーマックと力を合わせ、彼らは大規模なモデルに頼らないことを誓った
>>: 何百万人ものネットユーザーがDALL-E 3の新しいゲームプレイを視聴しました!アイアンマンとテスラはどれも「ヒット」、強迫性障害に優しい、ブロガーがヒントを共有
自動車業界は、安全性、持続可能性、接続性、全体的なユーザーエクスペリエンスを向上させるソフトウェアの...
[[187791]]機械学習は広く使用されており、チュートリアル、記事、オープンソース コードが至...
採用プロセスで人工知能テクノロジーに切り替えるのは難しいかもしれませんが、これらのヒントに従って、会...
今日では、スマートカーは都市ネットワークにおける「デジタルノード」となっています。優れた環境認識能力...
1. 要件の説明文字列を入力し、その文字列が回文であるかどうかを判断するプログラムを作成します。便宜...
2023 年 6 月 13 日 – 先日開催された 2023 年 Greater China Exe...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[285648]]今日、開発者にとっての参入障壁はかつてないほど高くなっています。ソフトウェア開...
[[208162]]大規模なニューラル ネットワークには多数のレイヤーとノードがあるため、特にオンラ...