実装のアイデアと手順軽量 LLM モデル推論フレームワーク InferLLM を OpenHarmony 標準システムに移植し、OpenHarmony で実行できるバイナリ製品をコンパイルします。 (InferLLM は、量子化されたモデルを LLM にローカルに展開できるシンプルで効率的な LLM CPU 推論フレームワークです) OpenHarmony NDK を使用して、OpenHarmony 上で InferLLM 実行可能ファイルをコンパイルします (具体的には、OpenHarmony lycium クロスコンパイル フレームワークを使用し、いくつかのスクリプトを記述します。次に、それらを tpc_c_cplusplusSIG リポジトリに保存します)。 DAYU200に大規模な言語モデルをローカルにデプロイするInferLLM 3 パーティ ライブラリ コンパイル製品をコンパイルして取得するOpenHarmony SDK をダウンロードするには、ダウンロード アドレス:http://ci.openharmony.cn/workbench/cicd/dailybuild/dailyList このリポジトリをダウンロードする
InferLLM の 3 者ライブラリ ヘッダー ファイルと生成されたライブラリを取得します。InferLLM-405d866e4c11b884a8072b4b30659c63555be41d ディレクトリは、コンパイルされた 32 ビットおよび 64 ビットのサードパーティ ライブラリを含む tpc_c_cplusplus/thirdparty/InferLLM/ ディレクトリに生成されます。 (関連するコンパイル結果は、lycium ディレクトリの下の usr ディレクトリにパッケージ化されません)。 コンパイルされた製品ファイルとモデルファイルを開発ボードにプッシュして実行します。
InferLLM 三部ライブラリを移植して、OpenHarmmony デバイス rk3568 に大規模な言語モデルを展開し、人間とコンピューターの対話を実現します。最終的な実行効果は少し遅く、人間とコンピューターのダイアログボックスが少しゆっくりとポップアップするので、しばらくお待ちください。 |
<<: GPT-4/Llama2のパフォーマンスを大幅に向上させるためにRLHFは必要ない、北京大学のチームはAlignerの新しいアライメントパラダイムを提案
2年間チャートを独占し、4年連続で優勝した日本の富士山が、ついに「台座」から転落した。先日発表された...
12月27日、テスラのCEOイーロン・マスク氏が新たに設立したAIスタートアップ企業xAIは、競合他...
インド政府は3月8日、「インドにAIを根付かせる」と「AIをインドのために役立てる」という2大目標の...
今日のディープラーニングと大規模モデルの急速な発展により、革新的なテクノロジーの絶え間ない追求がもた...
Amazon Go ストアのオープンは、私たちの買い物方法に大きな変化をもたらします。私たちは初め...
この世で唯一負けない武術はスピードだ。ディープラーニング モデルをより速くトレーニングする方法は、常...
[[194511]]序文テキスト分類は、自動記事分類、自動メール分類、スパム識別、ユーザー感情分類な...
[[203224]]概要: 従来のモデルに別れを告げましょう。テクノロジー企業が機械学習に取り組む...
こんにちは、Xiaozhuangです! PyTorch での自動微分演算に関して、この論文では Py...
「人工知能」は3年連続で政府活動報告に盛り込まれており、2019年にはビッグデータ、人工知能などの研...
[51CTO.com より引用] 運用保守というと、多くの人が無意識のうちに運用保守担当者を「スケー...
外科用ロボット、人工知能心理学者、そして一連の「人工知能+」プロジェクト技術の統合が医療分野に急速に...