1 行のコードで AI モデルの推論速度が 10 倍に向上します。 Reddit の技術共有は「恥知らずな自己宣伝」として揶揄される

1 行のコードで AI モデルの推論速度が 10 倍に向上します。 Reddit の技術共有は「恥知らずな自己宣伝」として揶揄される

Reddit フォーラムでは、さまざまな AI テクノロジーについて頻繁に議論されています。最近、あるネットユーザーがオープンソース ライブラリを共有し、わずか数行のコードを追加するだけで、モデルの実行速度を 10 倍以上向上できると主張しました。

この記事のタイトルは「ほとんど誰も知らない AI モデルを簡単に最適化する方法」です。

すべてが普通に見えて、単なる技術共有の投稿に過ぎないが、ネットユーザーはそれを信じない。彼らはそれを恥知らずな「自己宣伝」行為だと思っている。

Reddit ではこのディスカッションスレッドに「恥知らずな自己宣伝」というラベルまで付けられている。

では、これは単なる技術共有なのでしょうか、それとも注目を集めるためのマーケティング キャンペーンなのでしょうか?

テクノロジーの共有に何か問題があるのでしょうか?

著者は投稿の中で、コードを数行追加するだけでモデルの実行速度を 10 倍以上に上げることができると書いていますが、その方法を知らない人もいるかもしれません。

彼はAI研究の現状を次のように要約した。

人工知能の応用は雨後の筍のように急速に成長しており、人工知能の世界に参入する人も増えています。筆者もAI軍の一員です。しかし問題は、開発者が AI、データのクリーニング、モデルのトレーニングにのみ焦点を当てていることです。ハードウェア、コンパイラ、コンピューティング、クラウドなどのバックグラウンドを持つ人はほとんどいません。その結果、開発者はソフトウェアの精度とパフォーマンスの向上に多くの時間を費やしますが、ハードウェアとソフトウェアの結合を誤って選択したために、その努力がすべて無駄になってしまいます。

この問題は長い間彼を悩ませていたため、彼と Nebuly の友人数名 (全員が MIT、ETH、EPFL で働いた経験を持つ) は、nebullvm と呼ばれるオープン ソース ライブラリに多大な労力を費やし、ハードウェアについて何も知らなくても、あらゆる開発者が DL コンパイラ テクノロジを使用できるライブラリを開発しました。

そのワークフローは、複数の DL コンパイラをテストし、AI モデルをマシン (GPU、CPU など) に最適なコンパイラを選択することで、DL モデルを 5 ~ 20 倍高速化することです。これらはすべて、わずか数行のコードで実行できます。

このライブラリもオープンソースです: https://github.com/nebuly-ai/nebullvm

ネットユーザーから多くのコメントを受け取った後、投稿者は投稿に声明を掲載した。彼によると、この投稿は、リリース以来 GitHub で非常に人気がある (初日だけで 250 を超えるスターを獲得) オープンソース ライブラリに関するものだったという。残念なことに、この投稿には「恥知らずな自己宣伝」というレッテルが貼られ、技術的な質問への回答は他のコメントに隠れてしまいました。

彼は、実際にライブラリを試した人たちに、この投稿にコメントするよう促している。

ユーザーレビュー

投稿者は、技術共有の投稿が期待した効果を得られず、むしろネットユーザーから「叱責」され、話題になることを予想していなかったようだ。

最も高い評価を与えたネットユーザーは、Reddit が今回のような明らかに自己顕示欲の強いマーケティング手法に対して何らかのルールを設けられるかどうか質問した。また、ルールの例も示しました。

AI は優れていますが、当社の [ここにプラットフォーム/ツール/ライブラリを挿入] を使用すると、[1-10] 倍 [より良く、より速く、より簡単に] 実行できます。

新しいライブラリについて学ぶのは好きですが、マーケティング担当者から学ぶのは嫌いです。

以下に返信したネットユーザーも、テクノロジーを理解していないテクノロジーメディアが多すぎると述べています。PyTorch で .cuda() を使用すると、モデルの速度が直接 1,000 倍に向上することを知らないのではないでしょうか。

そして、初期のコメントや「いいね!」はすべてオンライン荒らしによって購入されたのではないかと私は疑っています。

より率直なネットユーザーは、これは全くのゴミ情報であり、最近Redditで何が起こっているのか分からないと述べた。

一部のネットユーザーは、最近の別の投稿を例に挙げた。その投稿には931件の「いいね!」があったものの、高評価のコメントはほぼすべて否定的なものだった。

このプロジェクト全体は、私の友人や母が私がやっていると思っていることと、私が実際にやっていることのメモにすぎません。

経営陣や投資家にとって美しいビジュアルです。実際に働いている人にとっては、ほとんど意味がありません。ほとんどの開発者がコマンド ラインとテキストを使用する理由は、扱うデータが膨大であるため、ビジュアルは助けになるどころか邪魔になるからです。

一部のネットユーザーはこれに反対しています。このサブレディットに潜入して参加している人のうち、実際にMLを職業として働いていない人の割合がいかに高いかを考えると、学生やソフトウェアエンジニア、またはこのトピックに個人的に興味があり、ここで何かを盲目的に支持することで「コミュニティ」の一員であることを実感したいだけの人もたくさんいます。ただし、公平を期すために言うと、彼らは批判するのに必要な経験をあまり持っていない傾向があります。

別のネットユーザーは、この記事が広告であることは分かっているが、「彼らは間違ったツールを使って、もっと良い方法があると伝えている」ようなものだと言っているが、正直言って、上記の作業を行う人が十分にいるとは思えない。 SLA には必要ではないにもかかわらず、速度やコードのパッチ方法に取り組んでいる人が増えているように思います。パフォーマンスの分析にはそれほど多くの作業は必要ありません。主な理由は、多くの実践者がソフトウェア エンジニアリングのバックグラウンドを持ち、実行速度こそ目指して進歩できるものであると考えているからです。

一部のネットユーザーは、このプロジェクトは単にTensorRT(または他の既存のディープラーニングコンパイラ)を介してモデルを実行しているだけであり、実際には「何もないところから多くの問題を引き起こしている」と信じて、テクノロジーの核心についても議論しました。

怒り

GitHub ライブラリの Readme ファイルによると、nebullvm は、ユーザーが 1 行のコードで複数の DL コンパイラをテストし、DL モデルの推論速度を 5 ~ 20 倍に高めることができるオールインワン ライブラリです。

このリポジトリには、すべてのオープンソース AI コンパイラーを同じ使いやすいインターフェースに統合することを目的としたオープンソース プロジェクトであるオープンソース nebullvm パッケージが含まれています。

著者らは、彼らが設計したものは非常に使いやすいと述べています。DL モデルを入力するだけで、対象のハードウェアに最適化されたモデルの最適化バージョンが自動的に取得されます。

著者の知る限り、現在、市場にあるさまざまな DL コンパイラを組み合わせて、ユーザーのモデルに最適なコンパイラを見つけるオープン ソース ライブラリは存在しません。彼らは、このライブラリが、AI 開発者が過度の時間を費やすことなくモデルをより効率的に作成することをますます容易にすることに大きく貢献できると考えています。

現在サポートされているフレームワークには PyTorch と Tensorflow が含まれ、サポートされている DL コンパイラには OpenVINO (Intel マシン)、TensorRT (Nvidia GPU)、Apache TVM が含まれます。

使い方も非常に簡単で、まずはpipを使ってインストールします。

次に、nebullvm を使用して、torch または tensorflow モデルをインポートします。pyTorch を例にとると、わずか数行のコードで最適化を完了できます。

作者が提供する情報と GitHub スターの数によると、このライブラリは信頼できます。

Reddit のユーザーは AI モデルに関する誇張された宣伝を目にしすぎたため、やはり無実を主張する著者に対して怒りをぶつけたのかもしれない。科学は本質的に「事実から真実を探求すること」であり、このようにしてのみより良く発展することができるのです。

あなたはサイトの作成者ですか、それとも Reddit ユーザーですか?

<<:  空中戦における人工知能の応用

>>:  2つのセッション「チップ」提案:自動車用チップに焦点を当て、サプライチェーンを開放し、「ボトルネック」を突破する

推薦する

2024年のトレンド: 時系列データと人工知能の融合アプリケーション

今日のデータ主導の世界では、競争上の差別化を図ることが成功の鍵となります。この目標を達成するために、...

...

2018 年の AI テクノロジーのブレークスルーの完全なコレクションをご紹介します。

[[253124]] 2018 年は AI 分野にとって依然として刺激的な年です。今年はNLP研究...

野生生物の保護: ドローン、ロボット、AI

最近、雲南省の象の群れに関するニュースを皆さんも聞いたことがあると思います。 2020年、雲南省西双...

...

複雑なネットワーク分析の効率を向上!中国の科学者が強化学習の新しい枠組みを開発

最近、中国の国立国防科学技術大学、カリフォルニア大学ロサンゼルス校、ハーバード大学医学部の研究者らが...

Nvidia、Hugging Face、ServiceNow がコード生成用の新しい StarCoder2 LLM をリリース

現在 3 つの異なるサイズで提供されているこれらのモデルは、リソースの少ない言語を含む 600 以上...

ホライゾン・ロボティクス、中国初のオープンで使いやすいソフトウェアとハ​​ードウェアの統合ロボット開発プラットフォームを発表

2022年6月14日、エッジ人工知能コンピューティングプラットフォームの世界的リーダーであるHori...

...

AIがIT運用に大きな影響を与える仕組み

AI が IT 運用に直接影響を与えることができる分野を考えるとき、他のアプリケーションよりも際立っ...

今後20年間で、人工知能は中国で9000万の雇用を生み出すだろう

今後20年間で、人工知能やロボット、ドローン、自動運転車などの関連技術により、中国での雇用は約12%...

...

機械学習は電力業界に大きな変化をもたらすだろう

エネルギーの状況は劇的な変化を迎えようとしており、今は機械学習と電力網を組み合わせる絶好の機会です。...

これからオープンする無人コンビニや無人スーパーにはこんな7つのブラックテクノロジーが隠されている

もうすぐダブルイレブンがやってきます。さまざまな商店が準備を進めています。JDの無人コンビニや無人ス...

2020年のAI開発の現状と展望の分析

中国政府は人工知能を国家戦略のレベルにまで高めた。 2017年7月、国務院は「次世代人工知能発展計画...