背景今日のデータ爆発の時代では、言語モデルのトレーニングはますます複雑かつ困難になっています。効率的な言語モデルをトレーニングするには、膨大なコンピューティング リソースと時間が必要です。しかし、これは多くの人にとって現実的ではありません。同時に、特にエッジデバイス上で、限られたメモリとコンピューティング リソースで大規模な言語モデルをどのように使用するかという課題にも直面しています。 今日は、GitHub のオープンソース プロジェクト jzhang38/TinyLlama をお勧めしたいと思います。このプロジェクトは、GitHub で 4.3k を超えるスターを獲得しています。このプロジェクトは、1 文で紹介できます。「TinyLlama プロジェクトは、3 兆個のトークンで 11 億個の Llama モデルを事前トレーニングするオープンな取り組みです。」 プロジェクト紹介TinyLlama は、3 兆個のトークンで 11 億個の Llama モデルを事前トレーニングすることを目指しています。適切な最適化により、16 個の A100-40G GPU を使用してわずか 90 日でこの目標を達成することができました。このプロジェクトは、Llama 2 とまったく同じアーキテクチャとトークナイザーを使用しているため、TinyLlama をプラグインして、多くのオープンソースの Llama ベースのプロジェクトに使用することができます。さらに、TinyLlama はパラメータが 11 億個しかないため、非常にコンパクトです。このコンパクトさにより、計算とメモリのフットプリントを制限する必要がある多くのアプリケーションに適しています。 使い方モデルを直接ダウンロードして使用することも、huggingface を通じてデモを使用することもできます。 ご自身でトレーニングをご希望の場合は、以下のトレーニング詳細をご参照ください。 プロジェクト推進TinyLlama は、いくつかの重大な問題を積極的に解決しており、オープンソース コミュニティで大きな注目を集めている、エキサイティングなオープンソース プロジェクトです。 以下は、プロジェクトのスタートレンドチャートです(プロジェクトのアクティビティを表します)。 プロジェクトの詳細については、以下のリンクをご覧ください。 オープンソースプロジェクトのアドレス: https://github.com/jzhang38/TinyLlama オープンソース プロジェクト作成者: jzhang38 プロジェクト構築に関わるメンバーは以下の通りです。 |
>>: 見事な! ! !テスラのエンドツーエンドのデモンストレーションビデオ分析
[[353240]]ニューラルネットワークをこのようにしないでください正直に言えば、あなたのモデル...
執筆者 | 王 瑞平校正 | Yun Zhao最近また「100均戦争」が始まってます…一輪の花が春を...
「データ」は今日、これほど広く注目されたことはありません。以前は、携帯電話番号などの情報を何気なく...
Markets and Marketsの人工知能サイバーセキュリティ予測レポートによると、AIサイバ...
[[416801]]ビッグデータダイジェスト制作出典: Wired 8月8日の夜、第32回夏季オリ...
業界の専門家が AI と自動化のベストプラクティスについて議論し、企業がこれらの重要な新興テクノロジ...
今では、このビッグモデルもその失敗から学んでいます。香港科技大学とファーウェイ・ノアの箱舟研究所によ...
[[394728]] [51CTO.com クイック翻訳]すべての優れた SF ストーリーには、ロボ...
人間の脳は、数十億個の細胞のネットワークで構成された、存在する最も複雑なコンピューターです。これまで...
[[358211]] DP と呼ばれる動的プログラミングは、非常に洗練された複雑なアルゴリズムとい...
機械学習とディープラーニングの違いは何だろうとよく疑問に思う方は、この記事を読んで、その違いを一般の...
OpenAI は 9 月に ChatGPT に画像入力機能を追加し、ユーザーが会話に添える 1 つ...
「自動化」や「人工知能(AI)」などの「技術革新」がビジネスや仕事の本質を変えていることは間違いあり...
【51CTO.com クイック翻訳】ビジネス ユーザーとアプリケーションがさまざまなソースからの生デ...