この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 頭蓋骨に囲まれた重さ3ポンドの組織の塊である私たちの脳は、どのようにして感覚から知覚を生み出すのでしょうか?これはずっと謎でした。 数十年にわたって、脳は周囲の環境を認識するために、感覚情報をパズルのように単純に組み合わせることはできないという研究と証拠が豊富にありました。この点は、入ってくる情報がごちゃごちゃしていてぼやけている場合でも、脳が目に入ってくる光からシーンを構築できるという事実によって裏付けられます。 その結果、ますます多くの神経科学者が脳を「予測機械」として捉え始めています。予測処理を通じて、脳は世界に関する事前の知識を使用して推測、つまり仮説を生成し、入ってくる感覚情報の原因を説明します。これらの仮定は、感覚入力そのものではなく、私たちの心の中に認識を生み出します。入ってくる感覚情報が曖昧であればあるほど、事前の知識への依存度が高まります。 予測処理フレームワークの優れた点は、さまざまなシステムにおけるさまざまな現象を説明できる極めて強力な能力を備えていることだと、オランダのラドバウド大学予測脳研究所の神経科学者、フロリス・デ・ランゲ氏は言う。 しかし、この考えは主に間接的であり、別の説明があることを裏付ける神経科学からの証拠が増えてきています。 「人間の認知神経科学と神経画像化を見ると、多くの証拠があるが、それらはすべて非常に暗黙的かつ間接的だ」と、機械学習と神経科学の学際分野で研究しているラドバウド大学のティム・キーツマン氏は言う。 そこで研究者たちは、計算モデルを通じて予測脳のアイデアを理解し、テストしようとし始めました。計算神経科学者は、生物学的ニューロンの行動を研究して、入力情報について予測することを学習できる人工ニューラル ネットワークを構築します。これらのモデルは、実際の脳の機能を忠実に模倣できます。これらのモデルを使ったいくつかの実験では、エネルギー制約を満たすために脳は予測マシンに進化しなければならないとさえ示唆されています。 計算モデルが急増するにつれ、生きた動物を研究する神経科学者は、脳が感覚入力の原因を推測することを学習しているとますます確信するようになっている。脳がこれをどのように行うかという正確な詳細は不明瞭なままですが、全体像は明らかになりつつあります。 1. 知覚における無意識の推論 予測処理は、一見すると直感に反する複雑な知覚メカニズムのように思えるかもしれないが、他にもっと良い説明がないように思われるため、科学者は長い間これを支持してきた。すでに千年も昔、イスラム教徒のアラブの天文学者で数学者のハサン・イブン・アル・ハイサムは、著書『光学の書』の中で、視覚のさまざまな側面を説明するために、ある種の予測処理を強調していました。この考えは 1860 年代に強力な支持を受け、ドイツの物理学者で医師のヘルマン・フォン・ヘルムホルツは、脳は感覚入力から「ボトムアップ」で知覚を構築するのではなく、感覚入力の外部原因を推測すると主張しました。 20 世紀半ばの認知心理学者は、アヒルとウサギの両方のように見えるこの画像を使用して、人間の知覚を研究しました。 ヘルムホルツは、画像がさまざまな方法で認識される双安定または多安定知覚を説明するために、「無意識の推論」の概念を開発しました。たとえば、上の写真のように、曖昧な画像では、私たちはそれをアヒルとして認識することも、ウサギであると考えることもあり、私たちの認識は 2 つの動物のイメージの間を行き来し続けます。ヘルムホルツは、この場合、網膜上に形成される画像に変化がないため、知覚は感覚情報の原因をトップダウンで推論する無意識のプロセスの結果であるに違いないと示唆しています。 20 世紀には、認知心理学者は、知覚はボトムアップの知覚とトップダウンの概念入力の両方を利用する能動的な構築プロセスであるという見解をさらに進めました。 リチャード・ラングトン・グレゴリーは 1980 年に「仮説としての認識」という非常に影響力のある論文を発表しました。論文の中で著者らは、知覚錯覚は本質的には感覚的印象の原因についての脳の誤った推測であると主張している。一方、コンピュータービジョンの科学者たちは、ボトムアップ再構成法の使用に取り組んでおり、これによりコンピューターは内部の「生成」モデルを参照せずに視覚を得ることができる。 予測処理の受容は高まっているものの、それが脳内でどのように実装されるのかという疑問は残っています。予測コーディングと呼ばれる人気のモデルでは、脳内の情報処理レベルには階層があると考えられています。最上級は、前方の影の中に蛇がいるという認識など、最も抽象的で最高レベルの知識を表します。この層は、信号を下方に送ることで次の層の神経活動を予測します。下の層では、実際のアクティビティを上の予測と比較します。不一致がある場合、レイヤーはエラー信号を生成し、それが上方に流れるため、上位レイヤーは内部表現を更新できます。 このプロセスは、実際の感覚入力を受け取る最下層に至るまで、連続する各層のペアで同時に発生します。外部から受け取った情報と期待される結果との間に矛盾があると、階層全体に波及するエラー信号が発生します。そして、上層部はついに、それは蛇ではなく、ただ地面に巻かれたロープであるという仮説を更新した。 「一般的な予測コーディングの原理、特に皮質に当てはまる原理は、脳には基本的に2つのニューロン集団があり、1つは知覚されているものに関する現時点での最良の予測をコード化し、もう1つはその予測の誤りを知らせるというものだ」とデ・ランゲ氏は述べた。 1999 年、ソーク生物学研究所のコンピューター科学者ラジェッシュ・ラオ氏とロチェスター大学のダナ・バラード氏は、予測と誤り訂正専用のニューロンを備えた強力な予測コーディング計算モデルを構築しました。彼らは、顔や物体の認識を担う階層的に組織化された領域で構成される霊長類の脳の視覚処理システムの経路の一部をモデル化した。彼らの研究は、このモデルが霊長類の視覚システムのいくつかの異常な動作を再現できることを示している。 しかし、この研究は現代のディープニューラルネットワークが登場する前に行われました。ディープ ニューラル ネットワークには、入力層、出力層、およびその間の複数の隠し層があります。 2012年までに、神経科学者は深層ニューラルネットワークを使用して霊長類の腹側視覚ストリームをシミュレートし始めました。しかし、これらのモデルのほとんどはフィードフォワード ネットワークであり、情報は入力から出力にのみ流れます。 「脳は明らかに純粋なフィードフォワードマシンではありません」とデ・ランゲ氏は言う。「脳にはフィードフォワード信号だけでなく、多くのフィードバックが存在します。」 そのため、神経科学者は別のタイプのモデル、つまりリカレントニューラルネットワーク (RNN) に目を向けました。これらの特徴により、RNN は脳をシミュレートするための「理想的な基盤」となる、とニューヨークのマウントサイナイ・アイカーン医科大学の計算神経科学者で助教授のカナカ・ラジャン氏は言う。同氏の研究室では RNN を使用して脳機能の解明に取り組んでいる。 RNN にはニューロン間のフィードフォワード接続とフィードバック接続の両方があり、入力に関係なく常にアクティブです。 「長期間にわたり、ほぼ永久的にこうしたダイナミクスを生成する能力により、こうしたネットワークを訓練することが可能になる」とラジャン氏は語った。 2. 予測は省エネのため RNN は、ウィリアム・ロッターとハーバード大学の博士論文指導教官であるデビッド・コックス、ガブリエル・クライマンの注目を集めました。 2016 年に、チームは予測コーディングを実行するように設計されたアーキテクチャを備えたリカレント ニューラル ネットワークである PredNet を構築しました。研究チームは、予測コーディングの原理に従って、RNN を 4 層の階層として設計しました。各層は、下の層から予測した入力を予測し、不一致がある場合はエラー信号を上方に送ります。
ウィリアム・ロッター 次に、車のカメラで撮影した街路のビデオを使ってネットワークをトレーニングしました。 PredNet は、ビデオ内の次のフレームを継続的に予測することを学習します。 「最初は本当に機能するかどうか確信が持てなかったが、試してみたところ、実際に予測ができた。とてもクールだ」とロッター氏は語った。 次の段階は、PredNet を神経科学と接続することです。昨年、ロッター氏と彼のチームは、Nature Machine Intelligence誌で、PredNetが、単純なフィードフォワードネットワークでは再現が難しい行動も含め、予期しない刺激に対するサルの脳で見られる行動を示したと報告した。 Kietzmann 氏は、PredNet は注目すべき成果だと考えています。しかし、彼とマルセル・ヴァン・ガーベン、そして彼らのチームが求めていたのは、もっと根本的なものでした。ラオとバラードのモデルとPredNetはどちらも、予測とエラー修正のための人工ニューロンと、正しいトップダウン予測によって誤ったニューロンを抑制するメカニズムを組み込んでいます。しかし、これらが明確に定義されていない場合はどうなるでしょうか?キーツマン氏は、こうしたアーキテクチャ上の制約が本当に必要なのか、あるいは問題を解決するより簡単な方法があるのかどうかを知りたいと述べた。 キーツマンとヴァン・ゲルヴェンに突然、ある考えが浮かびました。それは、神経伝達にはエネルギーコストがかかる(脳は人体の中で最もエネルギーを消費する器官である)というものでした。したがって、生物内で進化するあらゆるニューラル ネットワークの動作は、エネルギーを節約するために制限される可能性があります。 研究者たちは、できるだけ少ないエネルギーでタスクを完了しなければならない RNN に、予測コーディングのための計算メカニズムが出現するかどうかを調べることにしました。彼らは、ネットワーク内の人工ニューロン間の接続の強さ(重みとも呼ばれる)が、生物学的ニューロンのエネルギーのほとんどを消費するシナプス伝達の代理として機能できると考えています。 「人工ニューロン間の重みを減らすということは、通信に使用するエネルギーが少なくなることを意味します」とキーツマン氏は言う。「私たちはこれをシナプス伝達の最小化と考えています。」 予測コーディング アーキテクチャを備えたニューラル ネットワークである PredNet にビデオ シーケンスのフレームが提示されると (上)、それを予測することを学習します (下)。 次に研究チームは、1234567890、3456789012、6789012345 など、昇順で折り返した連続した数字の複数のシーケンスで RNN をトレーニングしました。各数字は 28×28 ピクセルの画像としてネットワークに提示されます。 RNN は、シーケンス内の任意のランダムな位置から次の数字を予測できる内部モデルを学習します。しかし、ネットワークは、生物の神経系における低レベルの神経活動と同様に、ユニット間の重みを可能な限り少なくしてこれを行うことを余儀なくされます。 これらの条件下で、RNN はシーケンス内の次の数字を予測することを学習しました。これらの人工ニューロンの一部は、予想される入力のモデルを表す「予測ユニット」として機能します。 「エラー細胞」として機能する他のニューロンは、予測細胞が次の数字を正しく予測することをまだ学習していないときに最も活発になります。予測ユニットが正しくなり始めると、これらの誤ったユニットは「目立たなくなります」。ネットワークがこのアーキテクチャを採用しているのは、エネルギー使用量を最小限に抑える必要があるためであることは注目に値します。 「このシステムは、人間が通常システムに明示的に組み込む種類の抑制を行うことを学習し、エネルギー節約を達成するために、私たちのシステムがそれをオンにして、偶発的にそれを実行するのです」とキーツマン氏は語った。 エネルギーの使用を最小限に抑えるニューラル ネットワークは、最終的には何らかの予測処理を実行するため、生物学的脳も同じことを行っている可能性があることを示唆しています。 ラジャン氏はキーツマン氏の研究を「エネルギー最小化のようなトップダウン制約が、予測コーディングのような特定の機能に間接的につながる非常に優れた例」と呼んでいる。これにより、彼女は、RNN における特定のエラーと予測ユニットの出現は偶然である可能性があり、ネットワークの端にあるニューロンだけが入力を受け取っているのではないかと考えるようになりました。入力がネットワーク全体に分散されていた場合、「私の直感的な推測では、エラー細胞と予測細胞の間には区別が見られないが、予測活動は依然として見られるだろう」と彼女は言う。 3. 脳と行動の統一的枠組み 計算研究によるこれらの洞察は説得力があるように思われるが、最終的には生きた脳からの証拠だけが、脳における予測処理を神経科学者に納得させるだろう。この目的のために、マギル大学とケベック州の人工知能研究所ミラの神経科学者でコンピューター科学者のブレイク・リチャーズ氏とその同僚は、予期せぬ出来事を予測することを学習する脳に何が見られるべきかについて、いくつかの明確な仮説を立てた。
「脳内の錐体ニューロンは、近隣のニューロンからの「ボトムアップ」信号と、より遠くのニューロンからの「トップダウン」信号を別々に統合できるため、解剖学的に予測処理に適していると思われます。」 ——セルヴァネグラ 仮説を検証するため、研究者らはシアトルのアレン脳科学研究所の研究者らと協力し、マウスの脳内の神経活動を監視しながら実験を行った。特に興味深いのは、大脳新皮質の特定の錐体ニューロンが解剖学的に予測処理に適していることです。細胞体への入力を介して近くのニューロンから局所的なボトムアップ感覚信号を受信することも、頂端樹状突起を介してより遠くのニューロンからのトップダウン投影を受信することもできます。 マウスには、明暗の縞模様からなる多数のガボールパッチの連続が示されました。マウスはまた、各配列の 4 つのスポットすべてがほぼ同じ方向を向いていると予想するようになりました。すると、予想外に、研究者たちは突然、ランダムに4番目のガボールパッチを異なる方向に回転させました。動物たちは最初は驚きましたが、時間が経つにつれてサプライズを楽しみにするようになりました。その間ずっと、研究者たちはマウスの脳の活動を観察しました。 彼らは、多くのニューロンが予想された刺激と予想外の刺激に対して異なる反応を示すことを観察した。重要なのは、この差はテスト初日にはローカルなボトムアップシグナリングで顕著であったが、2日目と3日目には減少したことです。予測処理の文脈では、刺激がそれほど強くなくなるため、新たに形成されたトップダウンの期待が、入ってくる感覚情報に対する反応を抑制し始めます。 一方、先端樹状突起については逆のことが当てはまりました。予期せぬ刺激に対する反応の違いは時間の経過とともに拡大しました。神経回路は、次回の予測精度を向上させるために、意外な出来事の特性をより良く表現することを学習しているようだ。 「この研究は、予測学習や予測コーディングのようなものが大脳新皮質で起こっているという考えをさらに裏付けるものだ」とリチャーズ氏は語った。 確かに、神経活動や動物の行動の個々の観察は、脳の他のモデルによって説明できる場合もあります。たとえば、同じ入力に対するニューロンの応答が減少した場合、それは誤ったユニットの抑制として解釈されるのではなく、単に適応プロセスによるものである可能性があります。しかし、「この現象については、さまざまな説明が載った『電話帳』がたくさんある」とデ・ランゲ氏は言う。 一方、予測処理は、一度に多くの現象を説明できる統一的な枠組みを提供するため、脳の働きに関する理論として魅力的です。 「現時点では、証拠はかなり説得力があると思う」とリチャーズ氏は語った。「実際、私はこの主張に大金を賭けてもいいと思っている」 |
>>: 人工知能は人間を管理することを学んでいます。将来、人工知能は人間の世界を支配するのでしょうか?
今日のグローバル社会は絶えず変化しています。 この文脈において、人工知能は物流業務システムの方向性を...
[[324419]]データ サイエンス プロジェクトに取り組んだことがある場合、データ マイニングの...
急速に進化するデジタル環境において、テクノロジーは私たちの生活を変え続け、私たちが可能だと思っていた...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[51CTO.comより引用] モバイルインターネット、モノのインターネット、ビッグデータ、人工知能...
人工知能の誕生は第二次世界大戦中に連合国が暗号解読機を開発し、それがナチスドイツのエニグマ暗号を解読...
IDC は、2024 年以降の世界の情報技術 (IT) 業界予測レポートを発表しました。 IDC は...
OpenAI深夜アップデート! 5 つの大きなモデルが一気に投げられました。新しい GPT-4 Tu...
ご存知のとおり、自然言語処理 (NLP) とコンピューター ビジョン (CV) は、人工知能の 2 ...
[[204618]]今年のAppleカンファレンスでは、iPhone Xの「フロントバン」が観客の...
実行している機械学習の種類に応じて、モデルのパフォーマンスを測定するために使用できるメトリックは多数...
「ウエストワールド」を見たことがある友人は、このドラマの舞台が未来の世界、巨大なハイテクな大人向けテ...