すべてのオープンソースモデルを超え、クロードとバードを破り、プログラミングタスク専用の大規模モデルが登場

すべてのオープンソースモデルを超え、クロードとバードを破り、プログラミングタスク専用の大規模モデルが登場

最近、大規模言語モデル(LLM)の継続的なリリースにより、LLMランキング競争が熱を帯びてきており、研究者たちは新しいLLM評価システムで自身のモデルのスコアを継続的に更新しようとしています。

中でも、スタンフォード大学が発表した新しい大規模言語モデルランキングであるAlpacaEvalは、非常に人気があります。これは、より高速で信頼性の高いLLMに基づく全自動評価ベンチマークです。 GPT-4、ChatGPTなど、多くの有名なモデルがリストに載っています。

少し前に、マイクロソフトの中国チームがリリースしたWizardLM(微調整された7B LLaMAモデル)が、数多くのモデルの中で4位を獲得しました。それより上位のモデルは、GPT-4、Claude、ChatGPTでした。WizardLMのパフォーマンスは依然として非常に優れていることがわかります。

最近、WizardLM チームは WizardCoder-15B の新しい大型モデルをリリースしました。その理由として、研究では、StarCoder などのコードクラスを生成する大規模言語モデル (Code LLM) が、コード関連のタスクで優れたパフォーマンスを達成したと述べています。しかし、既存のモデルのほとんどは、命令の微調整なしに、大量の生のコードデータで事前トレーニングされているだけです。そこで本研究では、コード領域にEvol-Instruct(難易度の異なる命令を生成する)アプローチを適用することで、コードLLMに洗練された命令の微調整を提供するWizardCoderを提案する。

HumanEval、HumanEval+、MBPP、DS1000 の 4 つのコード生成ベンチマークにおいて、WizardCoder は他のすべてのオープン ソース コード LLM を大幅に上回ります。さらに、WizardCoder は、HumanEval および HumanEval+ において、Anthropic の Claude や Google の Bard などの最大のクローズドソース LLM よりも優れたパフォーマンスを発揮します。

  • 論文アドレス: https://arxiv.org/pdf/2306.08568.pdf
  • コードアドレス: https://github.com/nlpxucan/WizardLM

方法論の面では、この研究はWizardLMが提案したEvol-Instruct法に触発されたと述べています。さらに、この研究では、コード命令をより複雑にして、コード事前トレーニング済み大規模モデルの微調整効果を向上させることも試みました。

コード生成の分野では、統一されたコードプロンプトテンプレートは次のとおりです。

この記事で使用されている 5 つのタイプは次のとおりです。

この研究では、WizardCoder をトレーニングするために以下のプロセスを採用しました。当初、彼らは StarCoder 15B をベースとして使用し、Evol-Instruct によって進化したコード命令に従うトレーニング セットを使用して微調整を行いました。微調整プロンプト形式の概要は次のとおりです。

WizardCoder のパフォーマンスはどうですか?

クローズドソースモデルとの比較。 GPT4、Claude、Bard などのコード生成用の SOTA LLM は、主にクローズド ソースです。ただし、これらのモデル API にアクセスするのは困難です。この研究では、LLM-Humaneval-Benchmarks から HumanEval と HumanEval + のスコアを取得するという代替アプローチを採用しました。下の図 1 に示すように、WizardCoder は Claude-Plus (59.8 vs 53.0) と Bard (59.8 vs 44.5) を上回り、3 位にランクされています。

WizardCoder モデルのサイズはこれらのモデルに比べてはるかに小さいことに注意してください。さらに、WizardCoder は、細かく調整された命令を備えた他のオープン ソース LLM に比べて大きな利点があります。

オープンソース モデルとの比較。表 1 は、HumanEval および MBPP ベンチマークにおける WizardCoder と他のオープン ソース モデルとの包括的な比較を示しています。表 1 の結果は、WizardCoder がすべてのオープン ソース モデルに比べてパフォーマンス面で大きな優位性を持っていることを示しています。

要約すると、図 1 と表 1 の実験結果から、次の結論を導き出すことができます。

  • WizardCoder は、Claude、Bard、PaLM、PaLM-2、LaMDA などの最大のクローズドソース LLM よりもはるかに小さいにもかかわらず、それらよりも優れたパフォーマンスを発揮します。
  • WizardCoder は、StarCoder、CodeGen、CodeGee、CodeT5+ を含むすべてのオープン ソース コード LLM よりも優れています。
  • WizardCoder は、InstructCodeT5+、StarCoder-GPTeacher、Instruct-Codegen-16B など、命令の微調整によりすべてのオープン ソース コード LLM を大幅に上回ります。

次の図は、DS-1000 ベンチマークにおけるさまざまなモデルの結果を示しています。

<<:  CVPR 自動運転チャレンジで優勝したのはどのようなソリューションでしょうか?

>>:  AIコンテンツゼロ!純粋なランダム数学は現実的な3D世界を無限に生成する、プリンストン大学の中国人による研究

ブログ    
ブログ    
ブログ    

推薦する

人工知能はプライバシー侵害につながり、人々は顔スキャンが安全を奪うのではないかと心配している

データの蓄積、コンピュータの計算能力の飛躍的向上、アルゴリズムの最適化により、人工知能は生活をより効...

Google翻訳カーネルのアップグレードによりエラー率が55%以上低下したと主張

最近、Google 翻訳はひっそりと翻訳コアをアップグレードしました。 Google が提供する公式...

...

...

...

ヘルスケアにおける機械学習の悪影響

Marzyeh Ghassemi 助教授は、医療データに隠れたバイアスが人工知能のアプローチにどのよ...

自動運転の利点は明らかだ。政治協商会議委員の李延宏氏:大規模な商業利用には政策革新が必要

[[385597]]中国時報(www.chinatimes.net.cn)記者の翟延安が北京から報告...

Meta、Xiaoice、NVIDIA が協力して何かを行っています!アジア初のメタバースエコロジー連盟が誕生

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

鉄道欠陥検出における機械学習の実用化

【51CTO.com クイック翻訳】はじめに列車が走行しているとき、線路には大きな圧力がかかることが...

...

キャッシュ除去アルゴリズムLRU実装原理についてお話しましょう

[[315530]] 01. はじめにデータのクエリ速度を向上させるために、キャッシュがよく使用され...

業界の洞察 | スマート シティと省エネ通信インフラ

スマートグリッドはエネルギー配給と通信ネットワークに革命をもたらす以下では、スマートグリッドの主な特...

疫病との戦いにおけるドローン:監視、空中管制、そして徹底的な説得

ドローンと聞いて何を思い浮かべますか?おそらくほとんどの人の答えは写真撮影でしょう。しかし、今回の疫...

...

政府における人工知能の積極的な役割

近年、政府の間ではAIへの関心が高まっており、さまざまなAIベースのアプリケーションのパイロットプロ...