WebGPT について簡単に説明してください。学びましたか?

WebGPT について簡単に説明してください。学びましたか?

原作者: エベネザー・ドン

元のアドレス: https://blog.logrocket.com/introduction-webgpt/

翻訳:イーチュアン

Web アプリケーションがデバイスのグラフィックス プロセッシング ユニット (GPU) に直接アクセスできるようにする新しい API である WebGPU の導入により、Web 開発は興味深い方向に進んでいます。 GPU は複雑な計算に優れているため、この進歩は重要です。

WebGPU の可能性を示すプロジェクトの 1 つが WebGPT です。これは、WebGPU API の機能を紹介するために設計された、JavaScript と HTML で記述されたシンプルなアプリケーションです。

この記事では、WebGPT が重要な理由と、ネイティブおよびブラウザで WebGPT を実装する方法について説明します。

WebGPT と WebGPU とは何ですか?

WebGPT の実際の実装に入る前に、舞台裏でどのように動作するかを簡単に説明しましょう。

WebGPT[https://github.com/0hq/WebGPT]は、シーケンスデータを効率的に処理するように設計された特定のタイプの機械学習モデルであるTransformerモデルのJavaScriptおよびHTML実装です。自然言語処理 (NLP) では、シーケンス データは通常、単語や文字の順序が意味を決定づける重要なテキストを指します。シーケンスの各部分は全体と同様に重要です。

Transformer モデルは、NLP シーケンス データの処理に適した機械学習モデルです。これらのモデルは、GPT (Generative Pretrained Transformer) を含む多くの最先端の自然言語処理モデルの基礎を形成します。

WebGPT の Transformer モデルは、Web アプリケーションがデバイスの GPU にアクセスして使用できるようにする API である WebGPU と連携するように設計されています。 GPU は、機械学習モデルに必要なタイプの並列計算を実行するのに特に優れているため、WebGPT にとって強力なリソースとなります。

WebGPU が登場する前は、アプリケーションは主にデバイスの中央処理装置 (CPU) か、WebGL などの効率の低い古い API に依存する必要がありました。対照的に、WebGPT は、WebGPU API を使用してブラウザーで実行するように明示的に設計された Transformer モデルを使用します。

WebGPT は入力を受け取ると、Transformer モデルを使用してデータを処理します。 WebGPU API の助けを借りて、ユーザーのデバイス上でローカルに計算を実行できます。結果はブラウザに直接返されるため、高速かつ効率的な実行が可能になります。

このような強力な機械学習モデルをブラウザに導入すると、Web 開発に次のような大きな影響がもたらされます。

  • リアルタイムデータ処理: クライアント側で計算を行える場合、最小限の遅延でリアルタイムデータ処理が可能になります。これにより、インタラクティブ ツールやゲームからリアルタイム分析まで、さまざまなアプリケーションのユーザー エクスペリエンスを変革できます。
  • プライバシーの強化: データ処理はユーザーのデバイス上でローカルに行われるため、機密性の高いデータをサーバーに送信する必要がありません。これは、個人情報や機密データを扱うアプリケーションにとって大きな変化をもたらし、ユーザーの信頼とプライバシーを強化する可能性があります。
  • コスト効率: 企業は、コンピューティング負荷をサーバーからクライアントに移すことで、サーバー コストを節約できます。これにより、中小企業や個人の開発者が高度な機械学習機能を利用できるようになります。

WebGPTの実装

WebGPT は使いやすいように設計されており、実行には HTML ファイルと JavaScript ファイルのセットのみが必要です。ただし、WebGPU はかなり新しい技術であるため、WebGPU 対応のブラウザ [https://caniuse.com/webgpu] が必要になります。

2023 年 7 月現在、Chrome v113 は WebGPU をサポートしています。もう 1 つの方法は、互換性を確保するために Chrome Canary または Edge Canary をインストールすることです。

ブラウザでWebGPTを実行する

WebGPT は、https://www.kmeans.org のデモ Web サイトで直接試すことができます。モデルの重みをリモートで読み込むと、ローカルで読み込むよりも遅くなる可能性があるため、応答性を高めるには、可能であれば WebGPT をローカルで実行することをお勧めします。

WebGPTをローカルで実行する

WebGPT をローカルで実行するには、次の手順に従います。

  1. WebGPT リポジトリのクローンを作成します。ターミナルで次のコマンドを実行して、リポジトリをクローンできます。
 git clone https://github.com/0hq/WebGPT.git
  1. Git LFS をインストールします。リポジトリ [https://blog.logrocket.com/efficiently-manage-large-files-git-with-git-lfs/] をクローンした後、Git LFS を使用してモデル ファイルをダウンロードする必要があります。Git LFS は、Git リポジトリに大きなファイルを保存できる Git 拡張機能です。ローカル マシンに Git LFS をインストールし、ターミナルで WebGPT ディレクトリに移動して次のコマンドを実行します。
 git lfs install
  1. モデル ファイルをダウンロードします。その後、次のコマンドを実行してモデル ファイルをダウンロードします。
 git lfs pull
  1. ローカル サーバーで WebGPT ファイルを起動します。シンプルな HTTP サーバーまたは Visual Studio Code 用の Live Server などのツールを使用できます。
  2. ブラウザで WebGPT ページを開きます。WebGPT を実行しているローカル サーバーの URL に移動します。次のようなページが表示されます。

写真

モデルの重みをロードするには、いずれかの「モデルのロード」ボタンをクリックします。その後、入力ボックスにテキストを入力し、「生成」をクリックすると、入力に基づいてテキストが生成されます。

写真

カスタム WebGPT モデルの使用

WebGPT には、小さな GPT-Shakespeare モデルと 1 億 1,700 万のパラメータを持つ GPT-2 の 2 つの組み込みモデルがあります。カスタム モデルを使用する場合は、リポジトリ [https://github.com/0hq/WebGPT] の other/conversion_scripts スクリプト ディレクトリを確認して、PyTorch モデルを WebGPT が使用できる形式に変換してください。

こちらが当社のカタログです:

写真

WebGPUの課題と制限

WebGPT は WebGPU 上に構築されているため、WebGPU の課題と制限を理解することが重要です。 WebGPU は有望なテクノロジーですが、まだ比較的新しい API であるため、克服すべき課題がいくつかあります。これには次のようなものがあります:

  • ブラウザのサポート不足: 現在、すべてのブラウザが WebGPU をサポートしているわけではなく、サポートしているブラウザでも完全にはサポートされていない可能性があります。これにより、WebGPU アプリケーションの開発と展開が困難になり、一般公開することは困難になります。
  • 複雑さ: WebGPU は複雑な API であり、学習や使用が難しい場合があります。これは、低レベルのグラフィックス API に精通していない開発者にとっては参入障壁となる可能性があります。
  • パフォーマンス: WebGPU は、特に古いハードウェアでは、WebGL よりも遅くなる場合があります。これは、WebGPU が低レベルの API であり、シェーダーをコンパイルしてグラフィックス パイプラインをセットアップするのに時間がかかる可能性があるためです。

GPTと他の変圧器モデルの将来

GPT や同様のモデルは、計算要件が高いため、主にサーバー上で実行されてきましたが、WebGPT は、これらのモデルをブラウザーで直接実行できることを実証しており、サーバーベースのセットアップに匹敵するパフォーマンスを提供します。

WebGPU などのテクノロジーや WebGPT などのプロジェクトによって提供される機能により、GPT などのトランスフォーマー モデルの使用を大幅に拡張できます。技術が成熟し、最適化が改善されるにつれて、より大きなモデルがブラウザでスムーズに実行されるようになるでしょう。

これにより、より洗練されたチャットボットから強力なリアルタイムテキスト分析および生成ツールまで、Web アプリケーションにおける高度な AI 機能の使いやすさが向上し、トランスフォーマー モデルの研究開発も加速される可能性があります。これらのモデルをより簡単に、より安価に導入することで、より多くの開発者や研究者がモデルを試し、改善する機会が得られます。

要約する

WebGPU を介して高度な機械学習モデルをブラウザに導入することで、開発者に多くの機会がもたらされ、Web アプリケーションがより強力になり、応答性が向上し、プライバシーに重点を置いた未来のビジョンが提示されます。

この技術はまだ比較的新しいため、パフォーマンスの最適化や大規模モデルの安定性の確保などの課題を克服する必要がありますが、潜在的なメリットは大きいです。開発者がこれらのツールを採用し、実験し始めると、WebGPT やブラウザ内機械学習を活用した新しい Web アプリケーションなど、より印象的な実装が登場することが期待できます。

<<:  清華大学の「自然言語プログラミング成果物」が利用可能になりました! 100以上のプログラミング言語をサポートし、効率性が向上しました

>>:  Google はビッグモデルを使用してスーパーアシスタントを書き換え、従業員を解雇して組織を再編して進歩を推し進めています。

ブログ    
ブログ    

推薦する

ガベージクリーニングは必須 - Java ガベージコレクションアルゴリズム

1. Javaガベージコレクションアルゴリズムの核となる考え方Java 言語は、使用中のオブジェクト...

エッジ AI とエッジ コンピューティングとは何ですか?

[51CTO.com クイック翻訳] エッジ AI は、人工知能の分野で注目を集めている新しい分野...

アリババが3D位置マップ圧縮アルゴリズムを革新、その論文結果がトップカンファレンスCVPR 2022に選出

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

無料の Python 機械学習コース 6: ニューラル ネットワーク アルゴリズム

ニューラルネットワークは人間の脳を模倣するために開発されました。まだ実現されていないものの、ニューラ...

MIT テクノロジーレビュー: 6 つの質問が生成 AI の未来を決定する

「生成AIは2023年に世界を席巻します。その未来、そして私たちの未来は、私たちの次の一手によって決...

GenAIは主流になるが、CIOの行動は遅い

過去2週間、OpenAIの創設者サム・アルトマン氏は取締役会により解雇され、関連メンバーはマイクロソ...

自動運転は「終焉」に向かっている

技術導入への困難な道のりは、特定の客観的な法則に従わなければならず、それはいかなる利害関係者の意見に...

...

ガートナーの予測: 2019 年の 7 つの主要な AI テクノロジーのトレンドが数百万の業界に混乱をもたらす!

SFではAIロボットは悪者として描かれるかもしれないが、一部のテクノロジー大手は現在、AIロボット...

データサイエンスと機械学習のための珍しいPythonライブラリ

[51CTO.com オリジナル記事] この記事では、現在市場にあるデータサイエンスや機械学習に適し...

...

...

ネットユーザーたちは、顔認識技術の何が難しいのかと冗談を言っている。

今朝、ジャック・マーは自身の微博に「ドイツで開かれたCEBITカンファレンスの開幕式が終わったばかり...

WEF: 2023 年のトップ 10 新興テクノロジー

世界経済フォーラム(WEF)は毎年、世界経済と社会に大きな影響を与える可能性のあるトップイノベーショ...