少し前に、Mistral AI がリリースした Mixtral 8x7B モデルがオープンソース コミュニティ全体で人気を博しました。そのアーキテクチャは GPT-4 と非常によく似ており、多くの人がこれを GPT-4 の「小型バージョン」と表現しています。 OpenAI チームが GPT-4 のパラメータ数とトレーニングの詳細については口を閉ざしていることは周知の事実です。 Mistral 8x7B のリリースにより、開発者は間違いなく「GPT-4 に非常に近い」オープンソース オプションを利用できるようになります。 ベンチマークでは、Mistral 8x7B は Llama 2 70B よりも優れており、ほとんどの標準ベンチマークで GPT-3.5 と同等かわずかに優れています。 画像出典: https://mistral.ai/news/mixtral-of-experts/ この研究が発表されると、多くの人が「クローズドソースのビッグモデルは終焉を迎えた」と言った。 わずか数週間で、機械学習愛好家の Vaibhav (VB) Srivastav 氏は次のように述べました。「AutoAWQ の最新バージョン (Mixtral、LLaVa などのモデルの量子化をサポート) のリリースにより、ユーザーは Mixtral 8x7B Instruct と Flash Attention 2 を組み合わせて高速推論を実現できるようになりました。この機能には、約 24GB の GPU VRAM と 10 行未満のコードしか必要ありません。」 画像出典: https://twitter.com/reach_vb/status/1741175347821883502 AutoAWQ アドレス: https://github.com/casper-hansen/AutoAWQ 操作手順は以下のとおりです。 まず、AutoAWQ とトランスフォーマーをインストールします。 2 番目のステップは、トークナイザーとモデルを初期化することです。 3 番目のステップは TextStreamer を初期化することです。 4 番目のステップは、入力をトークン化することです。 5 番目のステップでは、以下を生成します。 プロジェクトの設定が完了したら、Mixtral との会話を開始できます。たとえば、ユーザーが「最高のアメリカーノを作るにはどうすればいいですか? 簡単な手順でできますか?」と質問すると、Mixtral は手順 1、2、3 などで回答します。 プロジェクトで使用されるコード: Srivastav 氏は、上記の実装により、ユーザーは Mixtral のすべての微調整を AWQ で実行し、Flash Attention 2 を使用して改善できるとも述べています。 この研究を見たネットユーザーは思わずこう言った。「本当にすごい」 その他の関連リンクについては、以下を参照してください。 モデルアドレス: https://huggingface.co/models?search=mixtral%20awq Transformer の量子化テクノロジー: https://huggingface.co/docs/transformers/main/en/quantization |
<<: AI研究も印象派から学べるのでしょうか?これらの生きているような人物は3Dモデルであることが判明した
「周囲の車両や歩行者は、次の数秒で何をするだろうか?」これは、安全な自動運転を実現するために答えな...
つい先日の教師の日、ジャック・マー氏は引退を発表し、正式にアリババの会長を辞任した。引退後、ジャック...
「ナノロボット」は映画やSF小説に頻繁に登場するキャラクターで、何度も登場して驚くべきスキルを発揮...
[[286539]]ビッグデータダイジェスト制作著者: 張大毓如、陳若夢春節が近づいてきました!叔母...
ヘルスケア業界の成長は驚異的ですが、欠点がないわけではありません。医師や研究者は、一般的な病気や珍し...
デジタルでつながった時代において、サイバーセキュリティ防御における機械学習 (ML) の役割は不可欠...
11月28日、アリババクラウドは、世界初の統合バッチ・ストリームアルゴリズムプラットフォームでもある...
この記事は、Cristian Bodnar と Fabrizio Frasca の共著で、2021 ...
[51CTO.com オリジナル記事] 韓国 IT ブリーフィング (3 月第 3 週)今回のKor...
タスクの数が増えるにつれて、現在の計算方法を使用して汎用の日常的なロボットを構築するコストは法外なも...
昔々、ソフトウェアが世界を席巻しました。今、AI が残りを消化するためにここにいます。アプリケーショ...