李開復氏が所有するAI企業Zero One Everythingにも、もう1つの大手モデルプレイヤーが登場した。 90億のパラメータYi-9B 。 Yiシリーズの中では「理科の成績優秀者」として知られており、コーディング数学を「補い」つつ、総合的な能力でも劣っていません。 これは、同様の規模の一連のオープンソース モデル(Mistral-7B、SOLAR-10.7B、Gemma-7B、DeepSeek-Coder-7B-Base-v1.5 など) の中で最も優れたパフォーマンスを発揮します。 いつものように、このリリースはオープンソースであり、特に開発者にとって使いやすいものとなっています。 Yi-9B (BF 16) とその量子化バージョンである Yi-9B (Int8) はどちらも、コンシューマーグレードのグラフィック カードに導入できます。 RTX 4090 1 台と RTX 3090 1 台で十分です。 深い増幅 + 多段階の漸進的トレーニングZero One Thing の Yi ファミリーは、これまでに Yi-6B および Yi-34B シリーズをリリースしています。 どちらも 3.1T トークンの中国語と英語のデータで事前トレーニングされていますが、Yi-9B はさらなるトレーニングのために 0.8T トークンを追加します。 データの締め切りは2023年6月です。 冒頭で述べたように、Yi-9B の最大の改善点は数学とコードにあります。では、この 2 つの機能はどのように改善されたのでしょうか? ゼロワンエブリシングの紹介: 単にデータ量を増やすだけでは、望ましい結果は得られません。 まずモデルのサイズをYi-6Bから9Bに増やし、次に多段階のデータ増分トレーニングを実行します。 まず、モデルのサイズを大きくするにはどうすればいいでしょうか? 1 つの前提は、チームが分析を通じて次のことを発見したことです。 Yi-6B は完全に訓練されており、トークンを追加しても訓練効果が向上しない可能性があるため、サイズを拡大することを検討しています。 (下の写真の単位はTBではなくBです) 増やす方法は?答えは、ディープ増幅です。 ゼロワンエブリシングの紹介: 元のモデルの幅を拡張すると、パフォーマンスの低下が大きくなります。適切なレイヤーを選択してモデルの深さを拡張した後、新しく追加されたレイヤーの入出力コサインが 1.0 に近づくほど、拡張モデルのパフォーマンスが向上し、元のモデルのパフォーマンスを維持でき、モデルのパフォーマンスの低下はわずかになります。 このアイデアに従い、ゼロワンエブリシングは、比較的後期の Yi-6B の 16 層(12 ~ 28 層)をコピーして、48 層の Yi-9B を形成することを選択しました。 実験では、この方法は Solar-10.7B モデルを使用して中間の 16 層(8 ~ 24 層)をコピーするよりもパフォーマンスが優れていることが示されています。 次に、多段階トレーニング法とは何でしょうか? 答えは、まずテキストやコードを含むデータを0.4T増やすことですが、データ比率はYi-6Bと同じです。 次に、テキストとコードも含めた 0.4T のデータを追加しますが、コードと数学データの割合を増やすことに重点を置きます。 (分かりました。これは、大きなモデルの質問で使用したトリックと同じです。「段階的に考える」) これら 2 つのステップを完了した後、チームは 2 つの論文(「An Empirical Model of Large-Batch Training」と「Don't Decay the Learning Rate, Increase the Batch Size」) のアイデアを参考にして、パラメータ調整方法も最適化しました。 つまり、固定の学習率から始めて、モデルの損失が減少しなくなったら、バッチ サイズを増やして、中断することなく損失が減少し続けるようにし、モデルがより完全に学習できるようにします。 最終的に、Yi-9B には合計 88 億個のパラメータが含まれており、4k のコンテキスト長が達成されます。 Yiシリーズは最も強力なコーディングと数学の能力を持っています実際のテストでは、Zero One Everything は貪欲なデコード生成方法(つまり、毎回最大の確率値を持つ単語を選択する方法)を使用してテストを行います。 参加モデルは、DeepSeek-Coder、DeepSeek-Math、Mistral-7B、SOLAR-10.7B、Gemma-7B です。 (1)国内ディープラーニング企業のDeepSeek-Coderには、人間による評価でGPT-3.5-turboを上回る33B命令チューニング版と、CodeLlama-34Bの性能に達する7B版がある。 DeepSeek-Math は70 億のパラメータで GPT-4 を打ち負かし、オープンソース コミュニティ全体に衝撃を与えました。 (2) SOLAR-10.7Bは韓国のUpstage AI社製。2023年12月に打ち上げられ、その性能はMixtral-8x7B-Instructを上回る。 (3)ミストラル7Bは、ラマ270BやGPT3.5のレベルに達し、あるいはそれを上回る最初のオープンソースのMoE大型モデルである。 (4)GoogleのGemma-7B 、Zero One Everythingは次のように述べています。 その有効パラメータ量は、実際にはYi-9Bと同等レベルです。 (2 つの命名規則は異なります。前者は非埋め込みパラメータのみを使用し、後者はすべてのパラメータ量を使用して切り上げます。) 結果は以下の通りです。 まず、コーディングタスクでは、Yi-9B のパフォーマンスは DeepSeek-Coder-7B に次ぐもので、他の 4 つはすべて KO されています。 数学的能力の面では、Yi-9B のパフォーマンスは DeepSeek-Math-7B に次ぐもので、他の 4 つを上回っています。 全体的な能力も悪くありません。 そのパフォーマンスは、同様のサイズのオープンソース モデルの中で最高であり、他の 5 つの競合製品すべてを上回っています。 最後に、常識と推論能力もテストされました。 その結果、Yi-9B は Mistral-7B、SOLAR-10.7B、Gemma-7B と同等となりました。 語学力に関しては、英語だけでなく中国語も好評です。 最後に、これを読んだネットユーザーの中には、「試すのが待ちきれない」と言った人もいます。 DeepSeek について心配する人もいました。
ポータルはこちらです: https://huggingface.co/01-ai/Yi-9B |
<<: 中国科学院による1万語の説明:最先端の画像拡散モデルのレビュー
>>: マスクとイリヤのプライベートメールがクロードによって解読され、OpenAIの暗号化された情報が公開され、Googleが損害を被った
過去 2 日間で、GPT-4 が MIT EECS と数学の学部試験に満点で合格したという論文が T...
[[338620]]画像はPexelsよりこの記事はWeChatの公開アカウント「Big Data ...
Anthropicは2021年10月20日にOpenAIの創設者によって設立され、チャットボットC...
人工知能と機械学習の技術は世界に革命をもたらし、世界をより先進的なものにしていますが、この 2 つの...
AI の恩恵を受ける業界はどれでしょうか?人工知能と機械学習はすでにさまざまな業界に導入されており...
大手テクノロジー企業の開発経験からインスピレーションを得る人はたくさんいます。Amazon、Face...
人間と超人工知能の関係の発展は、長年にわたり話題となっている。少し前に、「人工知能研究ジャーナル」で...
[[421304]]製造業における自動化の推進力は非常に単純です。自動化は人間の作業をシミュレート...
[[271960]]彼は5歳の時に初めてコンピュータプログラムを書きました。14歳の時、自作のマッ...
誰もが騙される可能性がある現代では、別の人を騙して機械が騙されるかどうか試してみませんか?人工知能の...
自動化された AI システムは、建物の暖房と冷房を最適化して効率性と持続可能性を向上させるのに役立ち...
著者: ベン・ディクソン翻訳者 | 李睿レビュー | Chonglou制作:51CTO テクノロジー...
(レポート制作者/執筆者:国金証券、翟偉)レポートの概要産業チェーンと市場空間:中国の自動運転は現...