ジェマとはジェマ 軽量で最先端のオープンモデルシリーズで、 ジェミニ 同じ研究と技術をモデル化します。 Google DeepMind と Google の他のチームによって開発された Gemma は、ふたご座にヒントを得たもので、その名前は「宝石」を意味するラテン語の gemma を反映しています。 Google は、モデルの重み付けのリリースに合わせて、開発者のイノベーションをサポートし、コラボレーションを促進し、Gemma モデルの責任ある使用をガイドするための関連ツールもリリースします。 知っておくべき重要な詳細は次のとおりです。
Gemma モデルは、現在市場で最大かつ最も強力な AI モデルである Gemini とテクノロジーおよびインフラストラクチャ コンポーネントを共有しています。これにより、Gemma 2B および 7B は、他のオープン モデルと比較して、その規模でクラス最高のパフォーマンスを実現できます。さらに、Gemma モデルは開発者のラップトップまたはデスクトップ コンピューターで直接実行できます。驚くべきことに、Gemma は主要なベンチマークで大型モデルを上回り、安全性と責任ある出力に関する厳しい基準も満たしています。 上図の評価データから判断すると、Gemma 7Bモデルの性能はすでに同レベルのLlma-2 7Bよりも優れており、Llama-2 13Bも完全に上回っています。次回は、ジェマの最新モデルをいち早く体験する方法を紹介します。 オラマがジェマを運営まず、コンピュータにollama [1]がインストールされていることを確認してください。まだインストールしていない場合は、「わずか数分で大規模なローカル言語モデルをデプロイ!」という記事を参照してください。 ollama を正常にインストールしたら、コマンド ラインに次のコマンドを入力して、Gemma 2b または Gemma 7b モデルを実行できます。 このコマンドを実行すると、Gemma 2B または Gemma 7B モデルが自動的にダウンロードされます。コンピュータに十分なメモリがある場合は、次のコマンドを使用して、量子化されていないバージョン、つまり精度の高いバージョンをインストールし、より良い結果を得ることができます。 ollamaに加えて、 llama.cpp [2]も使用できます。 またはgemma.cpp [3] ジェマを体験しに来てください。 llama.cpp Gemma を実行する
gemma.cpp Gemmaを実行する
この記事では、Google の最新の Gemma オープンソース モデルを体験する 3 つの方法を紹介します。興味のある方は、このモデルの効果を体験してください。 参考文献 [1]オラマ: https://ollama.com/ [2]llama.cpp: https://github.com/ggerganov/llama.cpp [3] gemma.cpp: https://github.com/google/gemma.cpp |
<<: Karpathy が OpenAI を離れ、2 時間の AI コースを開始! GPTトークナイザーをゼロから構築する
>>: モデル融合、ハイブリッド専門家、小規模LLM、2024年のLLMの発展方向を理解するためのいくつかの論文
近年の人工知能の発展スピードは驚異的で、あらゆる分野で専門的なAIが登場しています。上海では以前、無...
ロボット工学と自動化には違いがありますか? 自動化が自分に適しているかどうかわからない人はたくさんい...
AI チャットボットは、自然言語処理と機械学習を使用してユーザーとの人間の会話をシミュレートするソフ...
AI(人工知能)とIoT(モノのインターネット)の融合により、世界中の企業に大きな可能性がもたらされ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
伝説のゲーム開発者ジョン・カーマック氏は、2030年頃に汎用人工知能(AGI)が登場する可能性がある...
自宅の高齢者が階段を降りる途中で誤って転倒したり、地域でいたずらっ子が走り回ってトラブルを起こしたり...
概要:ほんの数日前、ビッグ アイヴァンが携帯電話でソーシャル メディアをちょっとチェックしたとき、信...