WebGPT について簡単に説明してください。学びましたか?

WebGPT について簡単に説明してください。学びましたか?

原作者: エベネザー・ドン

元のアドレス: https://blog.logrocket.com/introduction-webgpt/

翻訳:イーチュアン

Web アプリケーションがデバイスのグラフィックス プロセッシング ユニット (GPU) に直接アクセスできるようにする新しい API である WebGPU の導入により、Web 開発は興味深い方向に進んでいます。 GPU は複雑な計算に優れているため、この進歩は重要です。

WebGPU の可能性を示すプロジェクトの 1 つが WebGPT です。これは、WebGPU API の機能を紹介するために設計された、JavaScript と HTML で記述されたシンプルなアプリケーションです。

この記事では、WebGPT が重要な理由と、ネイティブおよびブラウザで WebGPT を実装する方法について説明します。

WebGPT と WebGPU とは何ですか?

WebGPT の実際の実装に入る前に、舞台裏でどのように動作するかを簡単に説明しましょう。

WebGPT[https://github.com/0hq/WebGPT]は、シーケンスデータを効率的に処理するように設計された特定のタイプの機械学習モデルであるTransformerモデルのJavaScriptおよびHTML実装です。自然言語処理 (NLP) では、シーケンス データは通常、単語や文字の順序が意味を決定づける重要なテキストを指します。シーケンスの各部分は全体と同様に重要です。

Transformer モデルは、NLP シーケンス データの処理に適した機械学習モデルです。これらのモデルは、GPT (Generative Pretrained Transformer) を含む多くの最先端の自然言語処理モデルの基礎を形成します。

WebGPT の Transformer モデルは、Web アプリケーションがデバイスの GPU にアクセスして使用できるようにする API である WebGPU と連携するように設計されています。 GPU は、機械学習モデルに必要なタイプの並列計算を実行するのに特に優れているため、WebGPT にとって強力なリソースとなります。

WebGPU が登場する前は、アプリケーションは主にデバイスの中央処理装置 (CPU) か、WebGL などの効率の低い古い API に依存する必要がありました。対照的に、WebGPT は、WebGPU API を使用してブラウザーで実行するように明示的に設計された Transformer モデルを使用します。

WebGPT は入力を受け取ると、Transformer モデルを使用してデータを処理します。 WebGPU API の助けを借りて、ユーザーのデバイス上でローカルに計算を実行できます。結果はブラウザに直接返されるため、高速かつ効率的な実行が可能になります。

このような強力な機械学習モデルをブラウザに導入すると、Web 開発に次のような大きな影響がもたらされます。

  • リアルタイムデータ処理: クライアント側で計算を行える場合、最小限の遅延でリアルタイムデータ処理が可能になります。これにより、インタラクティブ ツールやゲームからリアルタイム分析まで、さまざまなアプリケーションのユーザー エクスペリエンスを変革できます。
  • プライバシーの強化: データ処理はユーザーのデバイス上でローカルに行われるため、機密性の高いデータをサーバーに送信する必要がありません。これは、個人情報や機密データを扱うアプリケーションにとって大きな変化をもたらし、ユーザーの信頼とプライバシーを強化する可能性があります。
  • コスト効率: 企業は、コンピューティング負荷をサーバーからクライアントに移すことで、サーバー コストを節約できます。これにより、中小企業や個人の開発者が高度な機械学習機能を利用できるようになります。

WebGPTの実装

WebGPT は使いやすいように設計されており、実行には HTML ファイルと JavaScript ファイルのセットのみが必要です。ただし、WebGPU はかなり新しい技術であるため、WebGPU 対応のブラウザ [https://caniuse.com/webgpu] が必要になります。

2023 年 7 月現在、Chrome v113 は WebGPU をサポートしています。もう 1 つの方法は、互換性を確保するために Chrome Canary または Edge Canary をインストールすることです。

ブラウザでWebGPTを実行する

WebGPT は、https://www.kmeans.org のデモ Web サイトで直接試すことができます。モデルの重みをリモートで読み込むと、ローカルで読み込むよりも遅くなる可能性があるため、応答性を高めるには、可能であれば WebGPT をローカルで実行することをお勧めします。

WebGPTをローカルで実行する

WebGPT をローカルで実行するには、次の手順に従います。

  1. WebGPT リポジトリのクローンを作成します。ターミナルで次のコマンドを実行して、リポジトリをクローンできます。
 git clone https://github.com/0hq/WebGPT.git
  1. Git LFS をインストールします。リポジトリ [https://blog.logrocket.com/efficiently-manage-large-files-git-with-git-lfs/] をクローンした後、Git LFS を使用してモデル ファイルをダウンロードする必要があります。Git LFS は、Git リポジトリに大きなファイルを保存できる Git 拡張機能です。ローカル マシンに Git LFS をインストールし、ターミナルで WebGPT ディレクトリに移動して次のコマンドを実行します。
 git lfs install
  1. モデル ファイルをダウンロードします。その後、次のコマンドを実行してモデル ファイルをダウンロードします。
 git lfs pull
  1. ローカル サーバーで WebGPT ファイルを起動します。シンプルな HTTP サーバーまたは Visual Studio Code 用の Live Server などのツールを使用できます。
  2. ブラウザで WebGPT ページを開きます。WebGPT を実行しているローカル サーバーの URL に移動します。次のようなページが表示されます。

写真

モデルの重みをロードするには、いずれかの「モデルのロード」ボタンをクリックします。その後、入力ボックスにテキストを入力し、「生成」をクリックすると、入力に基づいてテキストが生成されます。

写真

カスタム WebGPT モデルの使用

WebGPT には、小さな GPT-Shakespeare モデルと 1 億 1,700 万のパラメータを持つ GPT-2 の 2 つの組み込みモデルがあります。カスタム モデルを使用する場合は、リポジトリ [https://github.com/0hq/WebGPT] の other/conversion_scripts スクリプト ディレクトリを確認して、PyTorch モデルを WebGPT が使用できる形式に変換してください。

こちらが当社のカタログです:

写真

WebGPUの課題と制限

WebGPT は WebGPU 上に構築されているため、WebGPU の課題と制限を理解することが重要です。 WebGPU は有望なテクノロジーですが、まだ比較的新しい API であるため、克服すべき課題がいくつかあります。これには次のようなものがあります:

  • ブラウザのサポート不足: 現在、すべてのブラウザが WebGPU をサポートしているわけではなく、サポートしているブラウザでも完全にはサポートされていない可能性があります。これにより、WebGPU アプリケーションの開発と展開が困難になり、一般公開することは困難になります。
  • 複雑さ: WebGPU は複雑な API であり、学習や使用が難しい場合があります。これは、低レベルのグラフィックス API に精通していない開発者にとっては参入障壁となる可能性があります。
  • パフォーマンス: WebGPU は、特に古いハードウェアでは、WebGL よりも遅くなる場合があります。これは、WebGPU が低レベルの API であり、シェーダーをコンパイルしてグラフィックス パイプラインをセットアップするのに時間がかかる可能性があるためです。

GPTと他の変圧器モデルの将来

GPT や同様のモデルは、計算要件が高いため、主にサーバー上で実行されてきましたが、WebGPT は、これらのモデルをブラウザーで直接実行できることを実証しており、サーバーベースのセットアップに匹敵するパフォーマンスを提供します。

WebGPU などのテクノロジーや WebGPT などのプロジェクトによって提供される機能により、GPT などのトランスフォーマー モデルの使用を大幅に拡張できます。技術が成熟し、最適化が改善されるにつれて、より大きなモデルがブラウザでスムーズに実行されるようになるでしょう。

これにより、より洗練されたチャットボットから強力なリアルタイムテキスト分析および生成ツールまで、Web アプリケーションにおける高度な AI 機能の使いやすさが向上し、トランスフォーマー モデルの研究開発も加速される可能性があります。これらのモデルをより簡単に、より安価に導入することで、より多くの開発者や研究者がモデルを試し、改善する機会が得られます。

要約する

WebGPU を介して高度な機械学習モデルをブラウザに導入することで、開発者に多くの機会がもたらされ、Web アプリケーションがより強力になり、応答性が向上し、プライバシーに重点を置いた未来のビジョンが提示されます。

この技術はまだ比較的新しいため、パフォーマンスの最適化や大規模モデルの安定性の確保などの課題を克服する必要がありますが、潜在的なメリットは大きいです。開発者がこれらのツールを採用し、実験し始めると、WebGPT やブラウザ内機械学習を活用した新しい Web アプリケーションなど、より印象的な実装が登場することが期待できます。

<<:  清華大学の「自然言語プログラミング成果物」が利用可能になりました! 100以上のプログラミング言語をサポートし、効率性が向上しました

>>:  Google はビッグモデルを使用してスーパーアシスタントを書き換え、従業員を解雇して組織を再編して進歩を推し進めています。

ブログ    

推薦する

ワンクリックで顔のピクセル画像を生成し、Animal Crossingにアップロードしましょう!このプロジェクトは楽しい

日本の独立系開発者佐藤氏はアスペルガー症候群のため学校を中退、退職。その後独学でAIを学び、AI画伯...

AlphaFold2の最初の公開PyTorchバージョンが複製可能になりました。コロンビア大学のオープンソースで、1,000以上のスターが付いています。

ちょうど今、コロンビア大学のシステム生物学助教授であるモハメッド・アルクライシ氏が、AlphaFol...

スマートホーム技術における感情AIの役割

スマートホーム テクノロジーの登場により、私たちが生活空間と関わる方法は大きく変わりました。音声制御...

2020年世界人工知能会議が開催されます! AI が人間の言語の高度な能力をいかにして習得するかをご覧ください。

2020年7月9日、2020年世界人工知能大会(WAIC)クラウドサミットが正式に開幕しました。I...

人工知能を活用した新しい小売無人店舗の発展展望は?

[[253800]] 2017年にジャック・マーがニューリテールの概念を提唱して以来、雨後の筍のよ...

MWC2018が開催間近、人工知能が焦点に

人工知能はバブルを抜け出し、徐々に細分化された分野に入り込み、繁栄し始めており、近年ではCESやMW...

...

カメラ、レーダー、地図は不要、二足歩行ロボットは「自分の感覚」で歩く

二足歩行ロボットは高価で複雑、そして壊れやすい。バランスという観点で言えば、二足歩行は四足歩行よりは...

Dry goods: アルゴリズムの学習に役立つオープンソース プロジェクト

[[321744]]今日、LeetCode の問題やさまざまなアルゴリズム ルーチンを分析できる優れ...

...

李開復:中国の大型モデル競争は非常に激しく、最終的には大きな勝者が数人出るだろう

12月28日、ベンチャーキャピタリストで元Google China社長の李開復氏の予測によれば、中国...

自動運転時代の前夜、ACCクルーズテクノロジーが台頭

自動車が発明された日から、自動運転機能への要望は、何世代にもわたるエンジニアたちの焦点となってきまし...

人工知能の時代において、女の子が将来勝てるようにするために親はどのような教育理念を持つべきでしょうか?

私は二人の女の子の母親です。親は子供に何でも良いものを残そうとすると言われていますが、子育ての過程で...

KDnuggets 調査 | データ サイエンティストが最もよく使用するアルゴリズム トップ 10

翻訳 | 江凡百理子杰樹校正 | ロリン最新の KDnuggets 調査では、データ サイエンティス...