私たちは、顧客サービス、仮想アシスタント、コンテンツ作成、プログラミング支援などのさまざまなアプリケーションでますます重要な役割を果たしている大規模言語モデル (LLM) によって駆動される AI の新しい時代を迎えています。 しかし、LLM の規模が拡大し続けるにつれて、大規模モデルの実行に必要なリソースも増加し、モデルの実行速度がますます低下し、AI アプリケーション開発者にとって大きな課題となっています。 この目的のために、インテルは最近、 BigDL-LLM [1]と呼ばれる大規模モデルのオープンソースライブラリをリリースしました。これは、AI開発者や研究者がインテル®プラットフォーム上での大規模言語モデルの最適化を加速し、インテル®プラットフォーム上での大規模言語モデルのユーザーエクスペリエンスを向上させるのに役立ちます。 以下は、 Intel® Xeon® Platinum 8468プロセッサーを搭載したサーバー上で実行され、BigDL-LLMによって高速化された330億パラメータの大規模言語モデルVicuna-33b-v1.3 [2]のリアルタイムパフォーマンスを示しています。 △ Intel® Xeon® Platinum 8468プロセッサー搭載サーバー上で330億パラメータの大規模言語モデルを実行した実速度(リアルタイム画面録画) BigDL-LLM: Intel®プラットフォーム上のオープンソースの Big Language Model アクセラレーション ライブラリBigDL-LLM は、大規模言語モデル向けに最適化された高速化ライブラリです。これはオープン ソース BigDL の一部であり、Apache 2.0 ライセンスの下でリリースされています。 さまざまな低精度最適化 (INT4/INT5/INT8 など) を提供し、さまざまなIntel® CPU 統合ハードウェア アクセラレーション テクノロジー (AVX/VNNI/AMX など) と最新のソフトウェア最適化を活用して、大規模な言語モデルでIntel®プラットフォーム上でより効率的な最適化と高速な操作を実現できます。 BigDL-LLM の重要な機能の 1 つは、Hugging Face Transformers API に基づくモデルの場合、モデルを高速化するためにコードを 1 行変更するだけでよいことです。理論的には、あらゆるTransformers モデルの実行をサポートできるため、Transformers API に精通している開発者にとっては非常に便利です。 Transformers API に加えて、大規模な言語モデル アプリケーションを開発するために LangChain を使用する人も多くいます。 このため、BigDL-LLMは使いやすいLangChain統合[3]も提供しており、開発者はBigDL-LLMを使用してTransformers APIまたはLangChain APIに基づいて新しいアプリケーションを開発したり、既存のアプリケーションを移行したりすることができます。 さらに、一般的な PyTorch 大規模言語モデル (Transformer や LangChain API を使用しないモデル) の場合、BigDL-LLM optimize_model API を使用して、ワンクリック アクセラレーションでパフォーマンスを向上させることもできます。詳細についてはGitHub README [4]および公式ドキュメント[5]を参照してください。 BigDL-LLMは、一般的に使用されているオープンソースLLMの高速化された例(Transformers API [6]を使用した例やLangChain API [7]を使用した例など)やチュートリアル(jupyterノートブックのサポートを含む) [8]も多数提供しており、開発者がすぐに使い始めることができます。 インストールと使用: 簡単なインストールプロセスと使いやすいAPIインターフェースBigDL-LLM のインストールは非常に簡単です。以下に示すようにコマンドラインを実行するだけです。 △コードが完全に表示されない場合は、左または右にスライドしてください BigDL-LLM を使用して大規模なモデルを高速化することも非常に簡単です (ここでは例として Transformers スタイルの API のみを使用します)。 BigDL-LLM Transformer スタイルの API を使用してモデルを高速化するには、モデルの読み込み部分を変更するだけでよく、その後の使用プロセスはネイティブ Transformer とまったく同じです。 BigDL-LLM API を使用してモデルをロードする方法は、Transformers API とほぼ同じです。ユーザーは、インポートを変更し、from_pretrained パラメータでload_in_4bit=Trueを設定するだけです。 BigDL-LLM は、モデルのロード中にモデルに対して 4 ビットの低精度量子化を実行し、さまざまなソフトウェアおよびハードウェア アクセラレーション テクノロジを使用して、後続の推論中に実行を最適化します。 △コードが完全に表示されない場合は、左または右にスライドしてください 例: 大規模な言語モデルに基づく音声アシスタントアプリケーションを迅速に実装する以下の記事では、一般的な LLM アプリケーション シナリオ「音声アシスタント」を例に、BigDL-LLM を使用して LLM アプリケーションを迅速に実装するケースを説明します。通常、音声アシスタント アプリケーションのワークフローは次の 2 つの部分に分かれています。 △ 図1. 音声アシスタントワークフローの概略図
以下はBigDL-LLMとLangChain [11]を使用して音声アシスタントアプリケーションを構築するプロセスです。 音声認識段階: 最初のステップは、プリプロセッサ プロセッサと音声認識モデル recog_model をロードすることです。この例で使用されている認識モデル Whisper は、Transformers モデルです。 BigDL-LLM でAutoModelForSpeechSeq2Seqを使用し、パラメータload_in_4bit=Trueを設定するだけで、このモデルを INT4 精度でロードして高速化できるため、モデル推論時間が大幅に短縮されます。 △コードが完全に表示されない場合は、左または右にスライドしてください 2 番目のステップは音声認識を実行することです。まず、プロセッサを使用して入力音声から入力特徴を抽出し、次に認識モデルを使用してトークンを予測し、再びプロセッサを使用してトークンを自然言語テキストにデコードします。 △コードが完全に表示されない場合は、左または右にスライドしてください テキスト生成段階では、まず BigDL-LLM のTransformersLLM APIを使用して LangChain 言語モデルを作成します (TransformersLLM は BigDL-LLM で定義された言語チェーン LLM 統合です)。 この API を使用して、任意の Hugging Face Transformers モデルを読み込むことができます。 △コードが完全に表示されない場合は、左または右にスライドしてください 次に、通常の会話チェーンを作成します LLMChain を作成し、作成した llm を入力パラメータとして設定します。 △コードが完全に表示されない場合は、左または右にスライドしてください このチェーンはすべての会話履歴を記録し、大規模言語モデルが応答を生成するためのプロンプトとして適切にフォーマットします。このとき、認識モデルによって生成されたテキストを「human_input」として入力するだけです。コードは次のとおりです。 △コードが完全に表示されない場合は、左または右にスライドしてください 最後に、音声認識とテキスト生成のステップをループに入れることで、この「音声アシスタント」とマルチターンのダイアログで会話できるようになります。下部のリンク[12]にアクセスすると、完全なサンプルコードを表示し、自分のコンピュータで試すことができます。 BigDL-LLM を使用して、独自の音声アシスタントを素早く構築しましょう。 著者についてIntel のシニア AI アーキテクトである Huang Shengsheng 氏、Intel の AI フレームワーク エンジニアである Huang Kai 氏、Intel フェローでありビッグデータ テクノロジーのグローバル CTO、BigDL プロジェクトの創設者でもある Dai Jinquan 氏は、いずれもビッグデータと AI 関連の業務に携わっています。 |
<<: Apple チップは、計算精度を低下させることなく大規模なモデルを実行できます。投機的サンプリングは急速に普及しており、GPT-4 もこれを使用しています。
[[386714]]北東部に拠点を置くエネルギー会社 Eversource で財務計画および分析 (...
衛星から都市計画まで、人工知能の進歩は新たな洞察をもたらしています。 [[270081]]宇宙技術と...
今日の主人公は、AI の世界で互いに愛し合い、憎み合う古くからの敵同士です。ヤン・ルカンとゲイリー・...
パンデミックにより、遠隔患者ケアのための人工知能(AI)の進歩が加速した。医師は、デジタル患者モニタ...
通常、画像処理ソフトウェアには、画像にぼかし効果を加えるための「ぼかし」フィルターが用意されています...
突然、大規模なモデリングコミュニティ全体が同じことについて話すようになりました。マイクロソフトの論文...
[[353013]]みなさんこんにちは。今日は職場でのアルゴリズム エンジニアの日常生活、つまりモ...
8月18日、百度とCCTVニュースは共同で「百度ワールド2021」カンファレンスを開催し、AIが何千...
今日は、実際の戦闘でよく使われる26のヒントを紹介します。これにより、出力がより効果的になります。見...
人間の生活様式はここ数十年で大きく変化し、リモートおよび自動化されたプロセスの必要性が浮き彫りになり...
[51CTO.com からのオリジナル記事] AI の発展は数々の浮き沈みを経験しており、AI ア...