OpenAI は PyTorch、TensorFlow を全面的に採用していますが、なぜそれほど優れていないのでしょうか?

OpenAI は PyTorch、TensorFlow を全面的に採用していますが、なぜそれほど優れていないのでしょうか?

TensorFlow と PyTorch フレームワーク間の戦いは長い間続いています。最近のニュースでは、PyTorch 陣営に新たな将軍が加わったと報じられています。 OpenAIは、PyTorchに完全に切り替え、すべてのモデルのフレームワーク標準を統一したと述べた。

[[313755]]

ディープラーニング フレームワークの使用に関しては、人工知能コミュニティ全体は、TensorFlow と PyTorch の 2 つの陣営に大まかに分けられます。 PyTorch は研究分野に適していると考える人もいますが、実際の産業用アプリケーションでは TensorFlow が適しているかもしれません。 PyTorch はユーザーフレンドリーな API と Python エコシステムに対する優れたサポートを備えているため、学術分野に適しています。 TensorFlow は、ユーザーの慣性と産業生産環境のサポートにより、業界に適しています。

最近のニュース報道は確かにこの声明を裏付けています。 Dota2をプレイするAIを研究し、NLP事前トレーニングモデルGPT-2を発表し、ロボットが片手でルービックキューブを復元できるようにした人工知能研究機関OpenAIは、PyTorchに完全移行すると発表した。

TensorFlow が絶対的な優位性を持っていた 2017 年から、2 つの主要フレームワークが相対的に均衡している現在に至るまで、双方の開発チームは、PyTorch がコミュニティでこれほど人気が​​出るとは予想していなかったかもしれません。

PyTorch によるプロジェクト標準の統一

OpenAI は短いブログ投稿で、統合ディープラーニング フレームワークとして PyTorch を使用する予定であると述べました。これまでは、フレームワーク自体の機能と利点に基づいて、プロジェクトごとに異なるフレームワークを使用していました。

OpenAI は、チームがモデルとそのア​​プリケーションを簡単に作成、共有できるようにするには、PyTorch を使用するのがより良い選択であると考えています。 OpenAI は標準化された PyTorch フレームワークを通じて、それに基づいたプラットフォームを構築し、さまざまなモデルやアプリケーションでフレームワークやツールを再利用できます。

PyTorch を選択するもう 1 つの重要な理由は、特に GPU クラスター上でさまざまな新しいアイデアを実装するのに PyTorch を使用するのが特に簡単であることです。 OpenAIはブログ投稿で、PyTorchを選択して以来、研究アイデアから生成モデルまでの反復的な開発時間を数週間から数日に短縮できるようになったと述べた。これにより、多くの時間を節約できます。さらに、PyTorch には活発な開発コミュニティがあり、FaceBook などの大規模な研究機関で使用されています。

OpenAIは記事の中で、チームの大半が移行作業を完了したとも述べています。特別な技術的な理由がない限り、PyTorch は基本的に主要なディープラーニング フレームワークです。たとえば、OpenAI は最近、深層強化学習ライブラリ「Spinning Up」の PyTorch バージョンをリリースしました。

[[313756]]

さらに、OpenAI は、今後のオープンソース計画で、「Block-Sparse GPU Kernels」などの PyTorch ベースのプロジェクトをさらにリリースする予定です。これは、cuBLAS や cuSPARSE よりも高速な新しいアーキテクチャ カーネルです。

TFには多くの問題があり、ユーザーはPyTorchに頼る

確かに、TensorFlow と比較すると、PyTorch にはパフォーマンス、産業エコシステムのサポートなどの点でまだ欠点があります。しかし、TensorFlow の多くの問題がユーザーに PyTorch を選択させる原因となっていることは否定できません。

一つ目は使いやすさの問題です。 TensorFlow は、最初に登場したときは学習曲線が急でした。このフレームワークを習得するのは、新しいプログラミング言語を学ぶのと同じくらい難しいです。 PyTorch は非常に「Pythonic」になるように設計されており、Python と同じくらい簡単に使用できます。

2つ目はAPIの安定性です。 TensorFlow が誕生した当時、業界や学界ではディープラーニング フレームワークの設計経験が不十分だったため、API の定義、設計、機能の実装に関してさまざまな認識があり、開発者は多くの回り道をしていました。さらに、ディープラーニング自体も急速に発展しており、新しいアルゴリズムには高速な API 実装が必要です。その結果、TensorFlow の API に繰り返し変更が加えられ、多くの contrib API が追加されました。対照的に、PyTorch の API 反復はより安定しており、名前の混乱の問題はありません。

上記の 2 つの理由から、PyTorch は TensorFlow よりも開始コストが低く、使用が高速です。そのため、新しいアイデアを頻繁に生み出す学術コミュニティは、PyTorch を好みます。結局のところ、彼らが必要としているのは、アイデアを素早く実現し、素早く反復できるディープラーニング フレームワークなのです。さまざまなアルゴリズムや独創的なアイデアを頻繁に生み出す研究機関として、OpenAI が PyTorch を使用するのは当然ながら合理的です。

ユーザーレビュー

OpenAI が PyTorch を全面的に採用したというニュースに関して、多くの Reddit ネットユーザーが意見を表明しました。

あるネットユーザーは、TensorFlow にイライラした後、PyTorch に切り替えるのは理にかなっていると考えました。彼はまた、TF2.0 が確かに「物事を正しい方向に導いている」と信じている。

別の人も同意し、PyTorch は時間とともに改善されてきていて、TF2.0 は実際には人々が考えるほど良くはないと述べました。さらに、TensorFlow と比較して、PyTorch の設計者とメンテナーは、柔軟性、使いやすさ、新しいテクノロジーの採用のバランスをとる方法を知っています。

コミュニティの残りの人々は次に何を決定するでしょうか? TensorFlow はもっと頑張る必要があります!

<<:  米軍は市街戦環境向けの人工知能システムを開発中

>>:  実稼働機械学習システムの構築に関する考慮事項

ブログ    
ブログ    
ブログ    

推薦する

GPUが急成長を遂げるGenAIの時代において、AMDはNvidiaのCUDAソフトウェアの堀を超えつつある

今日、生成 AI (GenAI) について話すとき、GPU とそれに伴うパフォーマンスおよびアクセシ...

2021年の人工知能の5つのトレンド

[[382638]]モバイル デバイス、スマート デバイス、IoT 製品からのデータが家庭や企業に溢...

NLPとナレッジグラフの統合

この記事は、中国情報処理学会の事務局長である白碩博士が杭州金融ナレッジグラフフォーラムで行った講演を...

AIチップと人工知能産業は密接に連携している

[[355495]]人類社会は情報化から知能化へと移行しています。人工知能は知能化を実現するための重...

シャッフルアルゴリズムの2つの実装の比較

方法1: ランダム生成まず、非常に一般的な方法であるランダム生成法(私が名付けました)を紹介します。...

Meta-Transformer: マルチモーダル学習のための統一フレームワーク

Meta-Transformer は、自然言語、画像、ポイント クラウド、オーディオ、ビデオ、時系列...

...

...

...

顔認識は3月15日に再び命名されました。データのプライバシーとセキュリティをどのように保護するのでしょうか?

昨日の3.15ガラでは、CCTVによって顔認識が初めて公開されました。 3月15日に顔認証が命名され...

...

アニメーション + 原理 + コード、トップ 10 の古典的なソート アルゴリズムを解釈する

ソートアルゴリズムは、「データ構造とアルゴリズム」における最も基本的なアルゴリズムの 1 つです。ソ...

ディープラーニングモデルアーキテクチャを視覚化する6つの一般的な方法の概要

視覚化は、ディープラーニング モデルの内部構造を説明し、理解するのに役立ちます。 モデル計算グラフの...

人工知能の時代でも様々な外国語を学ぶことは必要なのでしょうか?

[[254738]]文部科学省が公表した2017年度版の高等学校総合学習の計画と14項目の学習指導...

世界中の経営幹部の93%がAIに期待を抱いているが、65%はまだその恩恵を受けていないと答えている。

[[280194]]最近の調査、研究、予測、および AI アプリケーションの進捗状況と状況に関する...