翻訳者 |李睿 レビュー | Chonglou GPT-4 のような大規模言語モデル (LLM) はソフトウェア コードの記述に非常に優れていますが、これらのモデルのコストと不透明性により、より経済的でサイズの小さい LLM のエンコードへの関心が高まっています。 これらの代替手段は、特定のタスクに合わせて微調整でき、コストも低くなります。これらの LLM を開発する際の主な課題は、トレーニング データセットのサイズとモデルのパフォーマンスの間の最適なバランスを見つけることです。 この課題に対処するため、Microsoft は最近、より少ない例を使用して効率的なエンコーディング言語モデルをトレーニングするための新しい手法を紹介する論文を発表しました。この論文では、WaveCoder モデルを紹介し、同様の数の例でトレーニングされた他のエンコーディング LLM よりも優れたパフォーマンスを発揮すると主張しています。 WaveCoder を補完するために、Microsoft は 20,000 種類のコード例を厳選したデータセットである CodeOcean を開発しました。このデータセットは、コーディング アプリケーションの基本モデルの微調整を強化できます。 正しいエンコード例を選択してください図1 CodeOceanパイプライン WaveCoder は印象的な LLM モデルですが、この論文でさらに興味深いのは、付随するデータセットである CodeOcean です。 CodeOcean は、コスト効率と品質のバランスが取れたデータセットを作成するという大きな課題を解決します。研究者らは、多様性を最大限に高めたデータセットであれば、含まれる例の数が限られている場合でも、印象的な結果を生み出すことができると主張している。 研究チームは、200 万のコメントとコードのペアを含む大規模なコーディング データセットである CodeSearchNet から始めました。彼らは、BERT ベースのTransformerモデルを使用して各例の埋め込みを生成し、複雑な情報を数字のリストに変換しました。 彼らは、埋め込みにクラスタリング アルゴリズムを適用し、類似性に応じて例を並べ替えました。このアプローチにより、研究者は元のデータセットから多様性を最大化するサブセットを抽出できます。 説明を追加 コア データセットを構築した後、研究者はコードと手順を含むトレーニング例を作成する必要があります。これを実現するために、彼らは生のコード例から指導データを生成するジェネレーター-ディスクリミネーター フレームワークを作成しました。当初、彼らは GPT-4 を使用して特定のシナリオでのタスク定義を作成しました。これらの初期タスク定義は、ガイダンス プロンプトと組み合わせて GPT-3.5 に送られ、追加の例に対応する指示が生成されます。 図2 CodeOceanのジェネレーター・ディスクリミネーターフレームワーク 識別要素については、研究者らは別の評価プロンプトを開発しました。このプロンプトは、コードと命令の例とともに、評価のために GPT-4 に提供されます。 CodeOcean パイプラインは、適切な例を使用して将来のトレーニング例を生成します。 研究者たちは、この反復的なプロセスを通じて 20,000 個の高品質な教育サンプルを生成しました。例は、コード生成、コード要約、言語変換(あるプログラミング言語から別のプログラミング言語へ)、およびコード修復という 4 つの異なるコーディング タスクのカテゴリにわたります。これら 4 つのカテゴリは、LLM コーディング タスクの大部分を構成します。 WaveCoder のトレーニング図 3. WaveCoder は、同様の数の例でトレーニングされた他のエンコーディング LLM よりも優れたパフォーマンスを発揮します。 LLM をエンコードするためのトレーニング例を生成する方法は多数あります。しかし、Microsoft の CodeOcean は、一般化と例の効率性に重点を置いている点で独特です。大量のデータに依存する研究とは異なり、CodeOcean はより小さなデータセットで高いパフォーマンスを実現できます。 CodeOcean の有効性を実証するために、研究者らは 3 つのコーディング言語モデル (StarCoder-15B、CodeLLaMA (7B および 13B)、DeepseekCoder-6.7B) を微調整しました。データセットのサイズを考慮すると、微調整は高速かつコスト効率に優れています。研究者らは、微調整されたモデルを 3 つの主要なエンコード ベンチマーク (HumanEval、MBPP、HumanEvalPack) で評価しました。 CodeOcean で複数回トレーニングすることで、すべてのモデルがこれらのベンチマークで大幅な改善を示します。コード生成の面では、研究者は WaveCoder の影響と限界について次のように述べています。「微調整プロセスの後、WaveCoder モデルのパフォーマンスは、ベース モデルや一部のオープン ソース モデルと比較して大幅に向上しましたが、独自のモデル (GPT-4 や Gemini など) や、70,000 を超えるトレーニング データを使用してトレーニングされたモデルに比べるとまだ遅れをとっています。」 78,000 のトレーニング例の場合、WaveCoder と WizardCoder のパフォーマンスの違いはわずかです。これは、「洗練された多様な命令データにより、命令チューニングの効率が大幅に向上する可能性がある」ことを示しています。 WaveCoder は、特にコードの要約と修復タスクに優れています。ほぼすべてのプログラミング言語において、他のオープンソース モデルよりも優れたパフォーマンスを発揮します。この成功は、コード LLM の一般化能力を強化するためにコード関連のタスクを定義および分類することの有効性を浮き彫りにしています。 Microsoft はまだ WaveCoder と CodeOcean のモデル、コード、データを公開していないが、 Hugging Faceでの議論から、同社がそれらを公開するかどうかを検討していることがうかがえる。今後、研究者たちは、より大きなデータセットの効果と、CodeOcean と他のコーディング データセットを組み合わせることで得られる潜在的な利点を調査することを目指しています。 原題:小さな自動生成データセットを使用してコーディング LLM をトレーニングする方法、著者: Ben Dickson |
<<: 周紅一の2024年大模型予測は8つの点を検証し、ソラの出現は予想を超えていると述べている
>>: 大規模言語モデルとベクトルデータベースに基づくニュース推奨システムの開発
データの蓄積、コンピュータの計算能力の飛躍的向上、アルゴリズムの最適化により、人工知能は生活をより効...
中国の自動運転は新たな進歩を遂げ、無人運転の時代が到来した。 9月15日、百度はCCTVニュースと提...
12月5日、有名な数学者でフィールズ賞受賞者のテレンス・タオ氏は、ソーシャルネットワーク上で、多項式...
今日は、実際の戦闘でよく使われる26のヒントを紹介します。これにより、出力がより効果的になります。見...
AIが関わる音声の世界はまさに魔法のようです。ある人の声を別の人の声に置き換えるだけでなく、動物と声...
Atari ゲームを使って人工知能を研究するのは、ちょっと現実的ではないと感じますか?これでゲームボ...
ロボットは現代社会で生み出された新しい種です。科学技術の進歩により、ロボットの開発はもはや人間の能力...
グラフについてはあまり知らないかもしれませんが、ナレッジグラフについて言えば、それは間違いなく現在ホ...
自動運転車が交通事故に巻き込まれるのは今回が初めてではない。しかし、今回のPony.aiによるL4...
顔認識技術がさまざまな分野で持つ大きな可能性は、ほとんど想像できないほどです。ただし、最も洗練された...