一夜にして、世界で最も強力なオープンソースの大型モデル Falcon 180B がインターネット全体を熱狂させました。 1,800億のパラメータを持つFalconは、3.5兆トークンのトレーニングを完了し、Hugging Faceランキングでトップになりました。 ベンチマーク テストでは、Falcon 180B が推論、コーディング、熟練度、知識テストなどさまざまなタスクで Llama 2 に勝ちました。 実際、Falcon 180B は Google PaLM 2 に匹敵し、そのパフォーマンスは GPT-4 に近いです。 しかし、Nvidiaの上級科学者ジム・ファン氏はこれに疑問を呈した。 - Falcon-180B トレーニング データでは、コードが占める割合は 5% のみです。 コードは、推論力の向上、ツールの使用の習得、AI エージェントの強化に最も役立つデータです。実際、GPT-3.5 は Codex に基づいて微調整されています。 - エンコードベンチマークデータはありません。 コーディングスキルがなければ、「GPT-3.5 よりも優れている」または「GPT-4 に近い」と主張することはできません。それは事前トレーニング レシピの不可欠な部分であるべきであり、事後に微調整されるべきではありませんでした。 - パラメータが 30B を超える言語モデルの場合、専門家の混合 (MoE) を採用する時期です。これまでのところ、OSS MoE LLM < 10B のみが確認されています。 Falcon 180B がどのようなものなのか見てみましょう。 世界で最も強力なオープンソースモデルこれまで、ファルコンは 1.3B、7.5B、40B の 3 つのモデル サイズを発売してきました。 公式発表によると、ファルコン180Bは40Bのアップグレード版で、アブダビにある世界有数の技術研究センターであるTIIによって打ち上げられ、商業利用は無料です。 今回、研究者らは、モデルのスケーラビリティを向上させるためにマルチクエリアテンションを使用するなど、ベースモデルに技術革新を加えました。 トレーニング プロセスでは、Falcon 180B は、Amazon クラウド マシン ラーニング プラットフォームである Amazon SageMaker をベースに、最大 4096 個の GPU で 3.5 兆個のトークンのトレーニングを完了しました。 合計 GPU 計算時間は約 7,000,000 です。 Falcon 180B のパラメータ サイズは Llama 2 (70B) の 2.5 倍ですが、トレーニングに必要な計算量は Llama 2 の 4 倍です。 具体的なトレーニングデータのうち、Falcon 180B は主に RefinedWe データセット (約 85% を占める) です。 また、会話、技術論文、小さなコードなど、厳選されたさまざまなデータに基づいてトレーニングされます。 この事前トレーニング データセットは十分に大きいため、3.5 兆個のトークンでも 1 エポック未満しかかかりません。 関係者は、Falcon 180B が現在「最高」のオープンソース大型モデルであり、次のような具体的な性能を備えていると主張しています。 MMLU ベンチマークでは、Falcon 180B は Llama 2 70B および GPT-3.5 よりも優れたパフォーマンスを発揮します。 これは、HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC、ReCoRD における Google の PaLM 2-Large と同等です。 さらに、Hugging Face オープンソース大規模モデル リストでは、LlaMA 2 (67.35) を上回り、最高得点のオープン大規模モデル (68.74 ポイント) となりました。 ファルコン180Bが利用可能同時に、研究者らはチャット対話モデル「Falcon-180B-Chat」もリリースした。このモデルは、Open-Platypus、UltraChat、Airoboros をカバーする会話とコマンドのデータセットに基づいて微調整されています。 今なら誰でもデモを体験できます。 アドレス: https://huggingface.co/tiiuae/falcon-180B-chat プロンプト形式基本モデルは、大規模な会話モデルではなく、指示によるトレーニングも行われないため、プロンプト形式がなく、会話形式で応答しません。 事前トレーニング済みモデルは微調整に最適なプラットフォームですが、直接使用することはおそらく避けるべきです。対話モデルにはシンプルな対話モードがあります。 トランスフォーマーTransformers 4.33 以降では、Falcon 180B を Hugging Face エコシステムで使用およびダウンロードできます。 Hugging Face アカウントにログインし、最新バージョンのトランスフォーマーがインストールされていることを確認してください。 bfloat16 bfloat16 で基本モデルを使用する方法は次のとおりです。 Falcon 180B は大型モデルなので、ハードウェア要件に注意してください。 このためのハードウェア要件は次のとおりです。 Falcon 180B をフルにファインチューニングしたい場合、少なくとも 8X8X A100 80G が必要であることがわかります。推論のみの場合、8XA100 80G GPU も必要です。 次のような出力が生成される場合があります。 8ビットと4ビットのビットとバイトの使用 さらに、Falcon 180B の 8 ビットおよび 4 ビットの量子化バージョンは、評価の点では bfloat16 とほとんど区別がつきません。 これは推論にとって朗報であり、ユーザーは量子化されたバージョンを自信を持って使用してハードウェア要件を削減できます。 推論は 4 ビット バージョンよりも 8 ビット バージョンの方がはるかに高速であることに注意してください。量子化を使用するには、「bitsandbytes」ライブラリをインストールし、モデルをロードするときに対応するフラグを有効にする必要があります。 会話モデル 前述のように、会話を追跡するために微調整されたモデルのバージョンでは、非常に簡単なトレーニング テンプレートが使用されます。雑談的な推論を実行するには、同じパターンに従う必要があります。 参考までに、チャット デモの [format_prompt] 関数を見てみましょう。 上記のように、ユーザーのインタラクションとモデルの応答の前には、 User: と Falcon: の区切り文字が付きます。これらを連結して、会話履歴全体を含むプロンプトを形成します。この方法では、生成スタイルを調整するためのシステムヒントを提供できます。 ネットユーザーからの熱いコメント多くのネットユーザーがファルコン180Bの真の実力について熱く議論した。 まったく信じられない。 GPT-3.5 を上回り、Google の PaLM-2 Large と同等です。これはゲームチェンジャーです! あるスタートアップ企業の CEO は、「Falcon-180B 会話型ロボットをテストしたが、Llama2-70B チャット システムより優れていることはなかった」と語った。 HF OpenLLM ランキングでも、さまざまな結果が示されました。はるかに大きなサイズと大きなトレーニング セットを考えると、これは驚くべきことです。 例えば: いくつかのエントリを指定して、Falcon-180B と Llama2-70B に個別に回答させて、パフォーマンスを確認します。 Falcon-180B は誤ってサドルを動物としてカウントします。 Llama2-70Bは簡潔に答え、正しい答えを出しました。 |
人工知能と機械学習の技術は世界に革命をもたらし、世界をより先進的なものにしていますが、この 2 つの...
[[415656]]謎のツイートにより、テスラが再び人気急上昇中だ。昨日、@Dennis Hong ...
[[388287]]なぜツリー構造が必要なのでしょうか? 1. 配列格納方法の分析:利点: 下付き...
まだ「投資段階」にある自動運転業界にとって、「新しいインフラ」は単なる概念ではなく、実際のビジネスチ...
[[349442]]人工知能に関する議論は現在、自動運転車、チャットボット、デジタルツイン、ロボット...
導入現実世界で働くときには、直面しなければならない事実がいくつかあります。この記事ではそれについて説...
GPT-4に次ぐ、李開復のYi-34B-Chatの最新成果が発表されました——アルパカ認定モデル部門...
テクノロジー企業が「個人のプライバシーを侵害する」顔認識システムを開発する際、彼らはあなたが予想して...
AIヘルスケア企業のCEOが、医療におけるAIの応用、AIソリューションの購入方法、ヘルスケア分野に...
米国国防高等研究計画局(DARPA)はかつて、第3波AIの概念を提唱しました。その議論では、第3波A...
劉玉秀、ザ・ペーパーの研修記者ラオ・ドンヤン氏の抵抗により、コミュニティ内で顔認識によるアクセス制御...
人類は歴史の中で長い道のりを歩んできましたが、現在の技術の進歩は人類の進歩のペースを加速させ、すべて...