この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 3か月近く休眠状態にあったOpenAIブログがついに更新されました。今回、AI研究者に届けられた作品は「OpenAI Microscope」で、中国語ではOpenAI顕微鏡と翻訳されています。 これは、実験室の顕微鏡のように機能し、AI 研究者がニューラル ネットワークの構造と特性をより深く理解するのに役立つことを意味します。 ブログアドレス: https://openai.com/blog/microscope/
OpenAI 顕微鏡顕微鏡アドレス: https://microscope.openai.com/models 上図に示すように、初期バージョンにはコンピューター ビジョン分野のニューラル ネットワーク モデルが 8 つ含まれています。各ニューラル ネットワークは、いくつかの重要なニューロンの内部構造を視覚的に表示します。 OpenAI は研究の中で次のように述べています。「現代のニューラル ネットワーク モデルの強力な能力は、何千ものニューロンの相互作用から生まれます。」 しかし、ニューロン間の「協力」はこれまでずっと謎だった。OpenAI が公開した顕微鏡は、こうしたニューロンを素早く調査するのに役立つだろう。 たとえば、研究者は、InceptionV1 4c:447 が、車輪検出器 (4b:373) と窓検出器 (4b:237) から構築された車検出器であると推測する場合があります。 たとえば、上のアニメーションに示されているように、OpenAI 顕微鏡による AlexNet の観察は、完全な画像から始まり、ニューラル ネットワークによる特徴抽出を経て、最終的に画像がいくつかの色付きの線に「ぼかし」られます。 (Leiphone.com(公式アカウント:Leiphone.com)) その間に何が起こったのですか?明らかに、ニューラル ネットワークの途中で何が起こっているかを理解することは非常に重要です。 上図のように、ニューラルネットワークの各層をクリックすると、OpenAI Microscope は画像を処理するプロセスを視覚化し、各ニューロンが処理された画像に対応します。各画像の「進行」プロセスが非常に明確に示されています。 OpenAI によれば、ニューロンを探索するこのプロセスは、別のニューラル ネットワークの解釈可能性の研究「ズームイン: 回路入門」に予想外の助けとなったという。 「顕微鏡」技術は、モデル内の位置と技術という 2 つの概念に基づいています。もっとわかりやすく言えば、位置とは顕微鏡をどこに向けるか、技術とは顕微鏡にどのようなレンズを取り付けるかということです。 このモデルは、「エッジ」を介して相互に接続された「ノード」(ニューラル ネットワーク レイヤー)のグラフで構成されます。各操作は、ニューロンにほぼ類似した数百の「ユニット」で構成されます。 使用されるテクニックのほとんどは、特定の解像度でのみ有効であることに注意してください。たとえば、機能の視覚化では「セル」のみを指すことができ、その親の「ノード」を指すことはできません。 説明可能性研究: DeepDreamより解釈可能性と決定論は機械学習システムの観点からは幅広いトピックであり、ニューラル ネットワークがそれらのレイヤーの機能で正確に何を実行しているかを理解することは困難です。 しかし、初期化パラメータの選択方法などの問題を解決するには、ニューラル ネットワークの性質を理解する必要があります。 AI研究者もこの方向に取り組んでいます。顕微鏡によるニューロンの可視化に加えて、近年のいくつかの研究では機械学習モデルの可視化も試みられています。 (Leiphone.com) たとえば、Facebook が昨年春に立ち上げた Captum は、機械学習モデルによる決定を説明するために視覚化技術を使用する実験を行っています。 Pytorch に基づくモデル解釈ライブラリとして、強力で柔軟性があり、使いやすく、すべての最新アルゴリズムの解釈可能性を提供します。これにより、研究者や開発者は、モデルの予測結果に影響を与える特定の機能、ニューロン、ニューラル ネットワーク レイヤーをより深く理解できるようになります。 当時、Facebook は Captum をベースに構築され、説明的な視覚化機能を提供する Captum Insight の試用版もリリースしました。 2019 年 3 月には、OpenAI と Google も機械学習アルゴリズムによる決定を視覚化するための Activation Atlases をリリースしました。 (Leiphone.com) これまでの研究が、視覚的なアルファベットの個々の文字をアルゴリズムに示すようなものであるとすれば、アクティベーション アトラスは辞書全体を提供し、文字がどのように組み合わさって実際の単語を形成するかを示します。 アクティベーション アトラスは、個々のニューロンから、これらのニューロンが集合的に表す空間の視覚化に焦点を移すことによって、機能の視覚化を構築します。 明らかに、今日の「顕微鏡」の作品も、以前の活性化マップ技術を統合し、それに依存しています。 こうした視覚化研究のすべては、2015 年にリリースされたコンピューター ビジョン プログラムである DeepDream と呼ばれる初期の実験にそのルーツがあると考えられます。このプログラムは、あらゆる画像をその画像の「幻覚」バージョンに変換することを目的としていました。 DeepDream は、Google のニューラル ネットワーク モデルが入力画像を理解する様子を「Deep Inception」と同様に示しています。その奇妙なスタイルにより、ある面ではいわゆる人工知能の美学を定義していると考えられています。 おそらく、その頃から AI 研究者たちはニューラル ネットワーク モデルから見た世界に興味を持ち、説明可能性の探求の道を歩み始めたのでしょう。 OpenAI の Chris OlahOlah 氏はかつてこう言っています。「ある意味で、すべては DeepDream から始まったのです。」 |
<<: RL エージェントはオンラインでしかトレーニングできないと誰が言ったのでしょうか? Google がオフライン強化学習の新しいパラダイムを発表
>>: Googleが謝罪:Vision AIが人種差別的な結果を生成
[[243873]]画像ソース @Visual Chinaインターネット上には、人体のさまざまな臓器...
[[197022]]新しく購入した水冷なしのパブリック版GPUの温度は、フル負荷で稼働すると室温から...
2017年、『エコノミスト』誌は、石油ではなくデータが世界で最も価値のある資源になったと宣言しました...
10月31日、テクノロジー系ポッドキャスト「Dwarkesh Patel」によると、Googleの...
Appleはまたしても悪いニュースを伝えた。 2か月前、悪い収益予測によりAppleの株価は一夜にし...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
Ogilvy は、ロボティック プロセス オートメーションと Microsoft のビジュアル AI...
AIエージェントがまた衝撃的なニュースをもたらしました。AIエージェントが直接監督に昇進し、「サウス...
人工知能の時代、未来の人材をどう育成するか? 10日、2019年重慶人材大会第4回大学・高校教育発展...
学際的な共同プロジェクトによる研究によると、人工知能は専門家の評価を必要とせずに、アンケートや脳スキ...