2頭のアルパカが頭と尻尾を切り落とし、それをくっつけてハギングフェイスリストのトップに

2頭のアルパカが頭と尻尾を切り落とし、それをくっつけてハギングフェイスリストのトップに

HuggingFace が再びオープンソースの大規模モデルのリストのトップに躍り出ました。

最前列は、数週間前に展示されていたさまざまな Mixtral 8x7B の微調整バージョンを除けば、すべてSOLAR 10.7B の微調整バージョンで埋め尽くされています。

SOLAR大型モデルの由来は何ですか?

関連論文が ArXiv にアップロードされました。これは韓国のUpstage AI社によるもので、新しい大規模モデル拡張法である深度アップスケーリング(DUS)を使用しています。

簡単に言うと、 7Bアルパカ2頭の頭と尻尾を切り落とし、片方の最初の8層を切り落とし、もう片方の最後の8層を切り落とします。

残りの2つの24層モデルを縫い合わせ、最初のモデルの24層目と2番目のモデルの9層目を接合して、最終的に新しい48層10.7Bの大型モデルを形成します。

この論文では、新しいアプローチは MoE などの従来のスケーリング方法よりも優れており、基盤となる大規模モデルとまったく同じインフラストラクチャで使用できると主張しています。

ゲーティングネットワークやMoEに最適化されたトレーニングフレームワークなどの追加モジュールは必要なく、高速推論のためのカスタムCUDAカーネルも不要です。高い効率性を維持しながら、既存の方法にシームレスに統合できます。

チームは7Bスケール最強の単体大型モデルであるミストラル7Bをベース素材に選び、オリジナル版やMoE版を上回る新たな手法でつなぎ合わせました。

同時に、調整されたInstructバージョンも、対応するMoE Instructバージョンを上回ります。

最後まで縫合する

この論文では、直感に基づいてこのスプライシング方法が使用される理由を説明しています。

まず、最も単純な拡張方法、つまり 32 層の基本的な大規模モデルを 2 回繰り返して 64 層にします。

これの利点は、異質性がなく、すべてのレイヤーがベースの大きなモデルから取得されるが、レイヤー 32 と 33 の間の継ぎ目にはより大きな「レイヤー距離」があることです(これはレイヤー 1 と同じです)

これまでの研究では、Transformer の異なるレイヤーはそれぞれ異なる機能を果たし、たとえば、より深いレイヤーはより抽象的な概念の処理に優れていることが示されています。

研究チームは、層の距離が大きすぎると、事前にトレーニングされた重みを効果的に活用するモデルの能力が妨げられる可能性があると考えています。

1 つの解決策として、中間層を犠牲にして継ぎ目の差を減らすことが考えられ、ここから DUS 方式が生まれました。

パフォーマンスとモデル サイズのトレードオフに基づいて、チームは各モデルから 8 つのレイヤーを削除することを選択し、シームは 1 番目のレイヤーに接続された 32 レイヤーから 9 番目のレイヤーに接続された 24 レイヤーに変更されました。

単純につなぎ合わせたモデルのパフォーマンスは、最初は元の基本モデルよりも低くなりますが、事前トレーニングを継続することですぐに回復できます。

命令の微調整フェーズでは、オープンソース データセットの使用に加えて、数学的に強化されたデータセットも作成され、アライメント フェーズでは DPO が使用されました。

最後のステップは、異なるデータ セットでトレーニングされたモデル バージョンを加重平均して、ステッチを完了することです。

一部のネットユーザーはテストデータの漏洩の可能性を疑問視した。

研究チームはこの点も考慮し、論文の付録でデータ汚染テストの結果を具体的に報告し、その結果は低いレベルを示しました。

最後に、SOLAR 10.7B ベース モデルと微調整されたモデルは両方とも、Apache 2.0 プロトコルに基づくオープン ソースです。

これを試したネットユーザーからは、JSON 形式のデータからデータを抽出するパフォーマンスが優れているとの報告がありました。

論文アドレス: https://arxiv.org/abs/2312.15166

<<: 

>>: 

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

新しい脳のようなコンピューティングデバイスは人間の学習をシミュレートできる:この論文はNature Communications誌に掲載された。

「シナプストランジスタ」は、脳の可塑性を模倣して、データの処理と保存を同時に行うことができます。 ...

AI推論の進化

AI推論市場はここ3、4年で劇的に変化しました。以前は、エッジ AI は存在すらせず、推論機能のほと...

2018年に人工知能はどのように発展するでしょうか? 13人の専門家の予測を聞いてみよう

ウォール・ストリート・ジャーナル、フォーブス、フォーチュンなどの出版物は、2017 年を「AI の年...

コードを1行変更するだけで、PyTorchのトレーニングを3倍高速化できます。これらの「高度なテクニック」が鍵となります。

最近、ディープラーニング分野の著名な研究者であり、Lightning AI のチーフ人工知能教育者で...

モノのインターネットにおける人工知能と機械学習の役割は何ですか?

人工知能 (AI) と機械学習 (ML) をモノのインターネット (IoT) システムに統合すること...

デジタル経済における人工知能の今後の発展動向

近年、デジタル経済の継続的な発展を背景に、人工知能は急速に発展し、さまざまな応用シナリオと深く統合さ...

...

8 月の Github のトップ 10 ディープラーニング プロジェクト、あなたはどれを選びますか?

ビッグデータダイジェスト制作編集者: CoolBoyみなさん、こんにちは! 先月のトップ 10 の機...

7億7千万パラメータ、5400億PaLMを超えます! UW Google はトレーニング データの 80% のみを必要とする「ステップ蒸留」を提案 | ACL 2023

大規模言語モデルは優れたパフォーマンスを持ち、ゼロショットまたは少数ショットのプロンプトで新しいタス...

ビッグデータと人工知能の関係

[[342758]]人工知能教育は最も美しい新しいインフラです人工知能のアルゴリズムの中にはデータ...

「幾何学的ディープラーニング」からのディープラーニングの統合

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能が都市景観をどう変えるのか

人工知能 (AI) とディープラーニングはあらゆるところに存在し、今や都市の景観を一変させる可能性を...

遠隔医療市場は2020年に65%近く成長すると予測

フロスト・アンド・サリバンの新しい遠隔医療市場予測によると、COVID-19パンデミックの影響で、遠...

...