少し前に、Mistral AI がリリースした Mixtral 8x7B モデルがオープンソース コミュニティ全体で人気を博しました。そのアーキテクチャは GPT-4 と非常によく似ており、多くの人がこれを GPT-4 の「小型バージョン」と表現しています。 OpenAI チームが GPT-4 のパラメータ数とトレーニングの詳細については口を閉ざしていることは周知の事実です。 Mistral 8x7B のリリースにより、開発者は間違いなく「GPT-4 に非常に近い」オープンソース オプションを利用できるようになります。 ベンチマークでは、Mistral 8x7B は Llama 2 70B よりも優れており、ほとんどの標準ベンチマークで GPT-3.5 と同等かわずかに優れています。 画像出典: https://mistral.ai/news/mixtral-of-experts/ この研究が発表されると、多くの人が「クローズドソースのビッグモデルは終焉を迎えた」と言った。 わずか数週間で、機械学習愛好家の Vaibhav (VB) Srivastav 氏は次のように述べました。「AutoAWQ の最新バージョン (Mixtral、LLaVa などのモデルの量子化をサポート) のリリースにより、ユーザーは Mixtral 8x7B Instruct と Flash Attention 2 を組み合わせて高速推論を実現できるようになりました。この機能には、約 24GB の GPU VRAM と 10 行未満のコードしか必要ありません。」 画像出典: https://twitter.com/reach_vb/status/1741175347821883502 AutoAWQ アドレス: https://github.com/casper-hansen/AutoAWQ 操作手順は以下のとおりです。 まず、AutoAWQ とトランスフォーマーをインストールします。 2 番目のステップは、トークナイザーとモデルを初期化することです。 3 番目のステップは TextStreamer を初期化することです。 4 番目のステップは、入力をトークン化することです。 5 番目のステップでは、以下を生成します。 プロジェクトの設定が完了したら、Mixtral との会話を開始できます。たとえば、ユーザーが「最高のアメリカーノを作るにはどうすればいいですか? 簡単な手順でできますか?」と質問すると、Mixtral は手順 1、2、3 などで回答します。 プロジェクトで使用されるコード: Srivastav 氏は、上記の実装により、ユーザーは Mixtral のすべての微調整を AWQ で実行し、Flash Attention 2 を使用して改善できるとも述べています。 この研究を見たネットユーザーは思わずこう言った。「本当にすごい」 その他の関連リンクについては、以下を参照してください。 モデルアドレス: https://huggingface.co/models?search=mixtral%20awq Transformer の量子化テクノロジー: https://huggingface.co/docs/transformers/main/en/quantization |
<<: AI研究も印象派から学べるのでしょうか?これらの生きているような人物は3Dモデルであることが判明した
重慶には「マスター、急いでいます!」というスピードがあります。シートベルトを締めると、地面に近いとこ...
インフレは世界的な問題であり、気候変動によって悪化しています。これは、異常気象の頻度と深刻度が増した...
[[390958]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
[[228688]]あなたはキャンパスライフに満足していますか?多くの人が「はい」と答えると思いま...
「ついていけない人は排除されるかもしれない」ソラのデモ動画を見て、10年以上の経験を持つアニメプロ...
21 世紀が近づくにつれ、各国の成功または失敗はもはや国民と政府指導者だけに依存するものではなくなり...
ある日、ヘルメットをかぶると、SFのような美しい世界が目の前に浮かび上がるのを想像したことはありませ...
米国のテクノロジー界では、中国における AI の現状について次のような誤解がよく見られます。彼らはし...
[[361000]]この記事はWeChatの公開アカウント「Unorthodox Front-en...
世界がコロナウイルス危機の影響に取り組む中、業界団体は競合するネットワーク リソース、高まるユーザー...
COVID-19の流行が続き、核酸検査が広範囲で徐々に常態化している中、複数の組織が核酸検査用ロボ...