7B オープンソースモデル、その数学的能力は数千億規模の GPT-4 を超えます。 その性能はオープンソースモデルの限界を突破しており、アリババ・トンイの研究者でさえスケーリング則が無効になったと嘆いている。 外部ツールを使わずに、競技レベルの MATH データセットで 51.7% の精度を達成できます。 オープンソース モデルの中で、このデータセットで半分の精度を達成した最初のモデルであり、GPT-4 の以前のバージョンや API バージョンを上回っています。 このパフォーマンスはオープンソースコミュニティ全体に衝撃を与えました。Stability AI の創設者である Emad Mostaque 氏も、R&D チームは本当に素晴らしいもので、その潜在能力は過小評価されていたと述べています。 これは、 DeepSeekチームによる最新のオープンソース 7B 数学モデル DeepSeekMath です。 7Bモデルは他を圧倒するDeepSeekMath の数学的機能を評価するため、研究チームは中国語(MGSM-zh、CMATH)と英語(GSM8K、MATH)のバイリンガル データセットをテストに使用しました。 補助ツールを使用せず、Chain of Thought (CoT)プロンプトのみに頼ることで、DeepSeekMath は 70B の大規模数学モデル MetaMATH を含む他のオープン ソース モデルよりも優れたパフォーマンスを発揮しました。 自社の67B汎用大型モデルと比較すると、DeepSeekMathのパフォーマンスも大幅に向上しました。 クローズドソースモデルを考慮すると、DeepSeekMath はいくつかのデータセットで Gemini Pro や GPT-3.5 を上回り、Chinese CMATH では GPT-4 を上回り、MATH でのパフォーマンスもそれに近いものとなっています。 しかし、漏洩した仕様によれば、GPT-4 は数千億のパラメータを持つ巨大なものであるのに対し、DeepSeekMath には 70 億のパラメータしかないことに注意する必要があります。 ツール(Python)の支援が許されれば、DeepSeekMath は競争難易度(MATH)データセットでパフォーマンスをさらに 7 パーセント ポイント向上させることができます。 では、DeepSeekMath の優れたパフォーマンスの背後にはどのようなテクノロジーが使われているのでしょうか? コードモデルに基づいて構築一般的なモデルから得られるよりも優れた数学的機能を得るために、研究チームはコード モデル DeepSeek-Coder-v1.5 を使用して初期化しました。 チームは、2 段階のトレーニングでも 1 段階のトレーニングでも、一般的なデータ トレーニングと比較して、コード トレーニングによってモデルの数学的能力を向上できることを発見したためです。 研究チームは Coder をベースに 5,000 億トークンのトレーニングを継続し、データの分布は次のようになりました。 トレーニング データに関しては、DeepSeekMath は Common Crawl から抽出した 120B の高品質な数学 Web ページ データを使用して DeepSeekMath Corpus を取得します。総データ量は、オープン ソース データセット OpenWebMath の 9 倍です。 データ収集プロセスは反復的に実行されました。4 回の反復を経て、研究チームは 3,500 万以上の数学 Web ページを収集し、トークンの数は 1,200 億に達しました。 トレーニングデータにテストセットの内容が含まれないようにするため(GSM8KとMATHの内容はインターネット上に大量に存在するため) 、研究チームは特別なフィルタリングも実行しました。 DeepSeekMath Corpus のデータ品質を検証するために、研究チームは MathPile などの複数のデータセットを使用して 1500 億のトークンをトレーニングしました。その結果、Corpus は複数の数学ベンチマークで大幅に優れたパフォーマンスを発揮することが示されました。 アライメント段階では、研究チームはまず、CoT、PoT、ツール統合推論の 3 つの形式を含む、776,000 サンプルの中国語 - 英語数学ガイド付き教師あり微調整(SFT)データセットを構築しました。 強化学習(RL)段階では、研究チームはグループ相対ポリシー最適化(GRPO)と呼ばれる効率的なアルゴリズムを使用しました。 GRPO は、従来の価値関数をグループベースの相対報酬推定に置き換えた近似ポリシー最適化(PPO)の変形であり、トレーニング中の計算とメモリの要件を削減できます。 同時に、GRPO は反復的なプロセスを通じてトレーニングされ、報酬モデルはポリシー モデルの出力に応じて継続的に更新され、戦略の継続的な改善が保証されます。 国内初のオープンソースMoEモデルを発表DeepSeekMath を立ち上げた DeepSeek チームは、中国におけるオープンソース モデルの分野におけるリーダー的存在です。 以前、チームは国内初のオープンソース MoE モデル DeepSeek MoE をリリースしました。その 7B バージョンは、同じサイズの高密度モデル Llama 2 を 40% の計算労力で上回りました。 一般的なモデルとして、DeepSeek MoE はコードと数学のタスクで非常に優れたパフォーマンスを発揮し、リソースの消費量も非常に少なくなります。 コード面では、チームが立ち上げた DeepSeek-Coder のプログラミング機能は、コード生成、ファイル間コード補完、数学問題のプログラム解決など、複数のタスクにおいて、同規模のオープンソース ベンチマーク CodeLllama の機能を上回っています。 同時に、GPT-3.5-Turbo も上回り、GPT-4-Turbo に最も近いオープンソース コード モデルとなりました。 先ほども述べたように、今回発売されたDeepSeekMathもCoderをベースに構築されています。 X では、すでに Coder と Math の MoE バージョンを楽しみにしている人もいます。 論文アドレス: https://arxiv.org/abs/2402.03300 |
<<: Google が TensorFlow-GNN 1.0 のリリースを正式に発表しました。大規模なグラフニューラルネットワークを構築するための動的かつインタラクティブなサンプリング
>>: Metaはギターロックとエレクトロニックミュージック向けの新しいオーディオ生成モデルMAGNeTをオープンソース化しました。これは自己回帰モデルよりも7倍高速です。
[[357046]]序文「三国殺し」は、中国の三国時代を背景に、身分を手がかりにカードを形にした人...
今日の人工知能分野では、「GPUがあれば十分」というのが徐々にコンセンサスになってきています。十分な...
シュメール王国の時代から、この賢明な王国の人々はデータを記録し、国勢調査を実施し、食糧を配給し始めま...
2017年は「人工知能」が輝きました。ディープラーニング「AlphaGo」が柯潔に勝利し、無人運転...
PaddleOCR は、PaddlePaddle ディープラーニング フレームワークに基づいて開発さ...
AI を取り巻く大騒ぎを考えると、フォーチュン 500 企業が必死になって LLM を実用化し、アメ...
宝の地図を持って砂漠に埋もれた金や宝石を探すというのは、おとぎ話によく登場する筋書きです。今では、携...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
ロボティック プロセス オートメーション (RPA) ソリューションは、人間が日常的に実行する多くの...
ChatGPT は、今日では無数の GPT に分割されています。 OpenAI は最初の Devel...
人工知能技術のトレンドは人類を前進させています。デジタル変革はあらゆる業界に広がり、人工知能は科学者...