「脳の学習メカニズムや学習方法の一部を解明できれば、人工知能はさらに進歩できるだろう」とベンジオ氏は語った。 ディープラーニングは、巧妙に設計されたアルゴリズム、つまり人間の脳だけが実行できるタスクをコンピューターが学習できるようにする独創的な数式に依存しています。ディープラーニングのアルゴリズムは人間の脳の構造単位と学習メカニズムにヒントを得ていますが、この単純な「シミュレーション」は実際には人間の脳の働きと同じではありません。最新の研究の進展により、科学者たちは謎を解明し、人工ニューラルネットワークのアルゴリズムのメカニズムを使用して人間の脳がどのように機能するかを明らかにしています。 14 年前の 2007 年に戻りましょう。当時、ニューラル ネットワークとディープラーニングはまだ人気のない分野でした。先駆的なディープラーニング研究者のグループが、人工知能の学術会議後に密かに集まり、「違法」な学術セミナーを開催した。なぜ「違法」だったかというと、メイン会場ではニューラルネットワーク関連の正式なセミナーの開催が許可されなかったからです。結局のところ、当時ニューラルネットワークはまだ異質なニッチなグループであり、サポートベクターマシンやランダムフォレストなどの従来の機械学習アルゴリズムがいわゆる「主流派」でした。 この非公式セミナーの最後に、トロント大学のジェフリー・ヒントン教授が閉会の挨拶をしました。当時、ヒントン氏は今日ほど有名ではありませんでした。彼はまだ認知心理学者であり計算科学者であり、深層学習ネットワークの研究の泥沼に苦闘していました。スピーチの冒頭で、彼はユーモラスにこう言った。「1年ほど前、夕食のために家に帰り、『やっと脳の働きが分かった気がする!』と言ったんです。すると15歳の娘がどうしようもなく口を尖らせて、『ねえ、パパ、また同じこと。もうやめようか』と言ったんです」 聴衆は笑い、ヒントン氏は続けた。「つまり、これが脳の働き方なのです」このアンコールの成功で、またみんなが笑いました。 ヒントン氏のジョークの背後には、ニューラルネットワークの分野で研究に苦労してきたテーマ、つまり人工知能を使って人間の脳を理解するというテーマがある。現在、ディープラーニング ネットワークは人工知能の分野を支配しており、新時代のトレンド セッターとして当然の地位を占めています。その最大の貢献者の 1 つが、有名なバックプロパゲーション アルゴリズムです。時々、人々はこれを愛情を込めてバックプロパゲーション アルゴリズムと呼ぶことがあります。このアルゴリズムにより、ディープラーニング ネットワークの重みは、学習目標とそれに入力されたデータに基づいて知識を学習できるようになり、画像分類、音声認識、自然言語翻訳、自動運転における道路状況の識別、その他のより神秘的な機能など、さまざまな機能がアルゴリズムに与えられます。
トロント大学の認知心理学者であり計算科学者でもあるジェフリー・ヒントン氏は、バックプロパゲーション アルゴリズムを含むディープラーニング ネットワーク テクノロジーの多くの画期的な進歩を先導してきました。 しかし、長年にわたる生物学研究により、生物学的脳が学習にバックプロパゲーションのメカニズムを使用する可能性は低いことがわかっています。モントリオール大学のコンピューター科学者で、ケベック人工知能研究所の科学ディレクターであり、2007 年の「違法」ワークショップの主催者の 1 人であるヨシュア・ベンジオ氏は、「ディープラーニング アルゴリズムと比較すると、人間の脳はより強力で、一般化と学習能力に優れています」と述べています。さらに、さまざまな証拠から、脳、特に皮質の解剖学的および生理学的構造により、人間の脳がバックプロパゲーション メカニズムを使用して学習することはほぼ不可能であることが示されています。
モントリオール大学の AI 研究者で計算科学者のヨシュア・ベンジオ氏は、バックプロパゲーションと同じ学習機能を持ちながら、より生物学的に妥当で信頼性の高い、生物学的に妥当な学習アルゴリズムに取り組んでいる科学者グループの 1 人です。 ディープラーニングの分野では、ベンジオ氏やヒントン氏に触発された他の多くの研究者たちが、人間の脳がどのように機能し学習するかという、より生物学的に意味のある疑問について考えてきた。単純なディープラーニングアルゴリズムと比較すると、人間の脳はより完璧な有機体です。その学習メカニズムを理解できれば、ディープラーニングの発展は確実に促進されるでしょう。 そのため、関係する研究者たちは、「バックプロパゲーション」学習アルゴリズムに適合する人間の脳内の生物学的メカニズムを見つけようと奮闘してきました。近年、関連するいくつかの進歩が遂げられており、最も有望な 3 つの発見として、フィードバック アライメント、平衡伝播、予測コーディングが挙げられます。研究者の中には、生物学における特定の種類の皮質ニューロンの特性や注意メカニズムなどのプロセスをアルゴリズムに具体化し、人間の脳ニューロン学習の背後にある謎を解明しようとしている人もいます。研究者が進歩するたびに、脳がどのように学習するかを理解することに一歩近づきます。 「脳は大きな謎に包まれており、脳の特定の学習メカニズムや学習方法を解明できれば、人工知能はさらなる発展を遂げることができると広く信じられています」とベンジオ氏は述べ、「しかし、人間の脳自体の働きのメカニズムを解明することは、極めて高い研究価値を持っています」と語った。 1 バックプロパゲーションを用いた学習 ディープラーニング ネットワークの基礎の 1 つは、カナダの心理学者ドナルド ヘブによって提唱された生物学のニューロン モデル理論です。何十年もの間、この理論の指針に基づいて、ディープラーニング ネットワーク アルゴリズムの研究が行われてきました。理論モデルでは、これは多くの場合、「一緒に発火するニューロンは一緒に配線される」と簡単に要約できます。具体的には、活動の相関性が高いニューロン間の接続がより強くなることを意味します。この単純な「真実」はその後の数え切れないほどの研究に影響を与え、そのルールとアルゴリズムのいくつかはいくつかの学習および視覚分類タスクにうまく適用されてきました。 しかし、ニューラル ネットワークの規模が非常に大きくなると、大量のデータのエラーから最適な重みを徐々に学習する必要があるため、バックプロパゲーション アルゴリズムの効果は大幅に悪くなります。より深い層にあるディープニューロンの場合、残差勾配を通じて自身のエラーを発見することが困難であり、そのため重みを適切に更新してエラーを減らすことができません。したがって、この場合、深層ニューロンは学習しない、収束しない、適合しないという問題を抱えることが多いです。この問題は勾配消失と呼ばれます。 「ヘブスの法則は、フィードバックを利用した非常に限定されたメカニズムであり、非常に特殊な状況でのみ機能し、エラーに非常に敏感です」とスタンフォード大学の計算神経科学者でコンピューター科学者のダニエル・ヤミンズ氏は述べた。
ダニエル・ヤミンズは、スタンフォード大学の計算神経科学者および計算科学者です。彼は、生物の脳内で実際にどのアルゴリズムが「実行」されているかを識別する方法を研究しています。 しかし、これは神経科学者がこれまでに発見し、利用してきた人間の脳の学習をシミュレートするための最良のメカニズムです。ディープラーニングのアルゴリズムとアイデアがまだ人工知能の分野を支配していなかった 1950 年代にも、ヘブの法則は最初のニューラル ネットワーク モデルの誕生に影響を与えました。その古代では、ニューラル ネットワーク内の各ニューロンは、生物学的ニューロンと同様に、1 つの入力しか受け入れず、1 つの出力しか生成できませんでした。ニューロンは、入力に、接続された入力の重要性を表すいわゆる「シナプス重み」を乗算し、重み付けされた入力を合計することで計算を実行します。この合計が各ニューロンの出力を構成します。 1960 年代までに、ニューロンはネットワークに編成され、入力層と出力層を持つ完全に接続されたネットワークを形成しました。このプロトタイプ構造を持つニューラル ネットワーク モデルは、いくつかの単純な分類および回帰問題を解決するために使用できます。トレーニング プロセス中、ニューラル ネットワークの目標は、出力と実際の値の間の誤差を最小限に抑え、それに応じて各ニューロンの重み値を調整することです。 1960 年代に、ニューラル ネットワークに入力層と出力層が追加されると、ネットワークの構造はサンドイッチから多層の巨大な構造へと進化し始め、つまり、ネットワーク層の数が増加し始めました。次に、深層ニューロンの勾配消失問題について説明します。当時は、これらのニューロンの深い層を効果的にトレーニングする方法を知っている人は誰もいませんでしたし、多くの隠れ層を持つニューラル ネットワークを効率的にトレーニングする良い方法もありませんでした。このジレンマは 1986 年まで解決されず、その解決の象徴となったのが、ヒントン、故デイビッド・ルメルハート、米国ノースイースタン大学のロナルド・ウィリアムズが共同で発表したバックプロパゲーション アルゴリズムの論文でした。 バックプロパゲーション アルゴリズムは、順方向伝播と逆方向伝播の 2 つの段階に分けられます。フォワードステージでは、ネットワークが入力データを受け取ると、現在のモデルの重みに基づいて出力が取得され、出力と理想的なターゲット出力の間にはいくらかの誤差が生じます。次に、逆フェーズでは、学習アルゴリズムがエラー値に基づいて各ニューロンの重みをターゲットに更新し、出力とターゲット値の間のエラーを削減します。 この学習プロセスを理解するために、ネットワークの実際の出力と理想的な出力の間の誤差を、モデルの順方向出力と予想される出力の差を表す「損失関数」で表します。この損失関数は、2 次元の「谷と丘」のイメージに似ています。ネットワークの実際の出力と予想される出力の誤差が大きい場合は、2 次元グラフの丘の部分に対応し、誤差が小さい場合は、グラフの谷の部分に対応します。ネットワークが指定された出力に基づいて前向き推論を実行すると、得られた出力に対応する誤差が2次元画像内の正確な点に対応し、学習プロセスは誤差が「丘」の位置から「丘の斜面」に沿って「谷」を見つけられるようにするプロセスです。谷間の位置誤差と損失値は非常に小さいです。バックプロパゲーション アルゴリズムは、損失とエラーを削減するためにニューロンの重みを更新する方法です。 計算の観点とアルゴリズムの本質から見ると、バックプロパゲーションフェーズでは、アルゴリズムは各ニューロンの重みの誤差への寄与を計算し、誤差の結果に基づいてこれらの重みを変更および更新することで、ネットワークのパフォーマンスを向上させ、損失値を減らし、目的の出力を取得します。この計算処理は出力層から入力層に渡され、方向は後ろの層から前の層に向かうため、バックプロパゲーションと呼ばれます。バックプロパゲーション アルゴリズムは、入力と出力の期待値で構成されるデータ セットを使用して、ネットワークの重みを繰り返し調整し、許容可能な収束重みのセットを取得します。 2 人間の脳はバックプロパゲーションのメカニズムを利用できない 多くの神経科学者は、バックプロパゲーション アルゴリズムを非常に粗雑で素朴なメカニズムであると考えています。彼らは、バックプロパゲーション メカニズムに基づく学習が脳内で起こることは決してないと考えています。最も著名な反対者は、ノーベル賞受賞者であり、DNA構造の共同発見者であるフランシス・クリックでした。現在、ファンシスは神経科学者です。 1989 年に、クリックは次のように書いています。「学習に関する限り、脳がバックプロパゲーションを使用して学習する可能性は低い。」 科学者は一般的に、主にいくつかの理由から、バックプロパゲーション アルゴリズムは生物学的に信頼できないと考えています。まず、計算原理の観点から、バックプロパゲーション アルゴリズムは、順方向と逆方向の 2 つの明確な段階に分かれています。しかし、生物学的脳の神経ネットワークにそのようなメカニズムを実装することは困難です。 2 つ目は、計算神経科学者が勾配/重み転送問題と呼ぶものです。バックプロパゲーション アルゴリズムは、フォワード パスのすべての重み情報をコピーまたは転送し、エラーに基づいてこれらの重みを更新して、ネットワーク モデルの精度を高め、パフォーマンスを向上させます。しかし、生物学的脳のニューラル ネットワークでは、各ニューロンは通常、それに接続されているニューロンの出力しか見ることができませんが、出力を形成する重みコンポーネントや内部計算プロセスを見ることはできません。ニューロンの観点から見ると、「ニューロンは自身の重みを知ることができますが、問題は他のニューロンの重みも知る必要があることです。これは生物学的観点からは少し難しいことです」とヤミンズ氏は語った。 生物神経科学の観点から見ると、実用的な生物学的モデルと学習メカニズムは、ニューロンが隣接するニューロンからのみ情報を取得できるという制限を満たす必要があります。しかし、バックプロパゲーション アルゴリズムでは、遠くにあるニューロンの重みに関する情報が必要になる可能性があることは明らかです。そのため、「脳がバックプロパゲーションを使って計算し、学習することはほぼ不可能だ」とベンジオ氏は言う。 探索の困難にもかかわらず、ヒントンと他の科学者たちは喜んでこの挑戦を受け入れ、生物学における脳の学習プロセスを研究し始め、生物学的脳における「バックプロパゲーション」学習メカニズムの探究に熱心に取り組みました。 「脳がバックプロパゲーション学習に似たことを行っていることを示唆する最初の論文は、バックプロパゲーション自体の論文と同じくらい画期的なものになると期待されています」とペンシルバニア大学の計算神経科学者コンラッド・コーディング氏は言う。幸いなことに、過去 10 年ほどの間に人工ニューラル ネットワークが爆発的に増加したことにより、生物の脳における「バックプロパゲーション」学習メカニズムの研究も始まりました。 3. 生物学的特性に沿った学習メカニズム 実際、ディープラーニングの分野では、バックプロパゲーションに加えて、より生物学的特性に沿った学習アルゴリズムもいくつか存在します。たとえば、2016 年に Google のロンドン DeepMind チームの Timothy Lillicrap 氏とその同僚は、フィードバック アライメント アルゴリズムを提案しました。このアルゴリズムは重みを転送しないため、生物学ではより「合理的」になります。このアルゴリズムは、フォワードパスの重み行列に依存せず、代わりにランダムに初期化されたバックワードパス行列を使用します。このアルゴリズムでは、ニューロンに重みを割り当てると、これらの重みはバックプロパゲーション アルゴリズムのように微調整されたり変更されたりすることはないため、バックプロパゲーション プロセスに重みを渡す必要はありません。 このアルゴリズムはアルゴリズムの観点からはあまり合理的ではありませんが、非常に有用であり、ネットワークがこのアルゴリズムを通じて比較的合理的な結果を学習できることは驚くべきことです。順方向推論の順方向重みは各逆方向パスで更新されるため、ネットワークは損失関数の勾配を削減しますが、学習と最適化は異なる方法で実装されます。このアルゴリズムでは、順方向の重みとランダムに選択された逆方向の重みがゆっくりと調整され、最終的に正しい結果が得られるため、このアルゴリズムはフィードバック調整と呼ばれます。 「この学習アルゴリズムは、少なくとも単純な学習タスクに関しては、それほど悪くないことがわかりました」とヤミンズ氏は言う。ただし、ネットワークの規模が非常に大きく、ニューロンの数が多く、ネットワーク層の数が深いなどの複雑な問題の場合、フィードバック調整メカニズムは、従来のバックプロパゲーションほど効果的ではありません。これは、各フォワード重み更新がバックプロパゲーションからのエラー フィードバックほど正確ではないため、この学習メカニズムにはより多くのデータが必要になるためです。 科学者たちはまた、バックプロパゲーションの学習効果を達成し、ヘブの法則の生物学的妥当性要件を満たすことができる学習アルゴリズムという別の分野も研究しています。簡単に言えば、アルゴリズムが学習と重みの更新に隣接するニューロンの情報のみを使用するようにする方法に関するものです。たとえば、ヒントンは、各ニューロンが同時に 2 セットの計算を実行するというアイデアを提案しました。 「これは基本的にジェフスが2007年に言ったことと同じだ」とベンジオ氏は語った。 ヒントンの研究を基に、ベンジオのチームは2017年に、再帰的接続を持つニューラルネットワークを必要とする学習方法を提案した。つまり、ニューロンAがニューロンBを活性化すると、ニューロンBがニューロンAを活性化するというものだ。このネットワークが何らかの入力を受け取ると、各ニューロンが直ちに隣接するニューロンにフィードバックを与えるため、何らかの「反響」が発生します。 最終的に、ネットワークは比較的安定した状態に達し、入力とニューロンのバランスを維持し、出力を生成しますが、この出力と理想値の間には一定の誤差があります。次に、アルゴリズムはニューロンの重みを変更し、ネットワークの実際の出力が理想的な出力値に近づくようにします。これにより、別の信号がネットワークを介して伝播し、同様のことが起こります。最終的に、ネットワークは新たな均衡点を見つけるでしょう。 「このアルゴリズムの背後にある数学の素晴らしい点は、変更前と変更後の重みを比較すると、勾配を変更するために必要なすべての情報が得られることです」とベンジオ氏は語った。ネットワークのトレーニングでは、最終結果を見つけるために、大量のラベル付きトレーニング データに対してこの「平衡伝播」プロセスを繰り返すだけで済みます。 4 予測的知覚 生物学では、脳の知覚プロセスに関する新たな研究でも、ニューロンは局所的な環境にのみ反応できるという特性が反映されています。エディンバラ大学の博士課程の学生であり、サセックス大学の客員研究員でもあるベレン・ミリジ氏とその同僚は、予測エンコーディングと呼ばれる脳ニューロンのこの知覚メカニズムとバックプロパゲーションの関係を研究してきました。 「もし予測コーディングが脳内で実際に存在するなら、それは我々にとって生物学的にもっともらしい状況を提供するだろう」とミリッジ氏は語った。 予測符号化理論では、脳は入力について継続的に予測を行っており、そのプロセスには神経処理の階層が関与していると考えられています。特定の出力を生成するには、各層が次の層のニューラル活動を予測する必要があります。高レベルのニューロンが「顔の抽象的な特徴を抽出する必要がある」と考えると、次の層が顔の特徴を使用して、より高レベルで抽象的なアクティビティを実行すると想定します。次のレイヤーがこの情報を使用する場合、顔を抽出する操作が正しいことが証明されます。そうでない場合は、この機能は使用されていないため無意味であることを意味します。一般的に、次のレイヤーは前のレイヤーによって抽出された有用な特徴を使用します。有用な特徴は網膜に落ちる光子のようなものです。このようにして、予測は上位レベルから下位レベルへと流れていきます。 しかし、ネットワークの各層でエラーが発生する可能性もあります。各層の入力と出力には多少の違いがあり、これらの違いが重なり合って最終的なエラーが発生します。ネットワークの最下層は、受信した感覚情報に基づいて重みを調整し、エラーを最小限に抑えます。この調整により、更新されたばかりのレイヤーとその上のレイヤーの間にエラーが発生する可能性があるため、上位レイヤーは予測エラーを最小限に抑えるために重みを再調整する必要があります。これらのエラーは徐々に蓄積され、同時に上方に伝播します。ネットワークは、全体にわたってエラーと重み調整を生成し、各レイヤーの予測エラーが最小化されるまでそれらを前後に渡します。 Millidge は、適切な構成により、この学習方法の予測コーディング ネットワークがバックプロパゲーション アルゴリズムの重みと非常によく似た重みに収束できることを示しました。 「ネットワークを、バックプロパゲーションした重みに非常に近くなるようにトレーニングすることができます」と彼は言いました。 しかし、ディープラーニング ネットワークの従来のバックプロパゲーション アルゴリズムと比較すると、予測コーディング ネットワークでは反復的な伝播を何度も実行する必要があり、1 回の伝播だけで収束することはできません。ネットワークの学習プロセスは、段階的な変更のプロセスです。予測コーディング ネットワークが収束するには、通常、数十、数百、または数千の伝播が必要です。反復にも時間がかかるため、この反復メカニズムが生物学的に妥当かどうかは、実際の脳内で各伝播にどれくらいの時間がかかるかによって決まります。重要な点は、生物学的脳の神経ネットワークは、外界からの入力が変化する前に、速やかに安定した状態に収束しなければならないということです。 ミリッジ氏は「学習プロセスは非常に高速でなければなりません。たとえば、トラが私に襲い掛かってきたとき、私の脳が何百回も繰り返し計算して送信し、それから逃げろと命令するなどということは絶対にあり得ません。もし私がそうしたら、おそらく一歩も踏み出さないうちにトラのアフタヌーンティーになってしまいます」と語る。しかし、同氏は「実際の脳では、多少の誤りや不正確さは許容範囲であり、予測コーディングは許容範囲で一般的に役立つより良い結果を迅速に計算できるはずです」とも述べた。 5 錐体細胞 前述のより「高度な」研究に加えて、単一ニューロンの特性に基づいて同様のバックプロパゲーション機能を備えたモデルを確立するなど、基礎研究に取り組んでいる科学者も数多くいます。標準的なニューロンには、他のニューロンから情報を収集し、ニューロンの細胞体に信号を送信する樹状突起と呼ばれる生理学的構造があります。すべての入力は細胞体内に統合されます。この入力から統合への現象はニューロンの活性化につながり、シナプス後ニューロンの軸索から樹状突起までの活動電位と生体電気スパイクをもたらしますが、もちろん、対応する活動電位が生成されない場合もあります。 しかし、すべてのニューロンがこの構造を持っているわけではありません。これは特に錐体ニューロンに当てはまります。錐体ニューロンは大脳皮質で最も多く存在するニューロンの一種です。樹状構造をしており、2 つの異なる樹状突起セットを持っています。樹状神経幹は上方に伸びて、いわゆる頂端樹状突起に分岐し、一方、ニューロン根は下方に伸びて基底樹状突起を形成します。 コーディングは2001年に独立して対応するニューロンモデルを提案した。偶然にも、マギル大学とケベック人工知能研究所のブレイク・リチャーズ氏とその同僚は最近、同様のニューロンモデルを提案した。これらのモデルは、ニューロンが順方向と逆方向の計算を同時に実行することで、ディープラーニング ネットワークの基本単位を形成できることを示しています。このモデルの鍵となるのは、入力ニューロン信号から、それぞれ基底樹状突起と先端樹状突起によって処理される前方推論と後方エラー伝播のコンポーネントを分離することです。これら 2 つの信号の情報はニューロン内で同時にエンコードされ、処理された後、出力として軸索に送信され、生体電気信号に変換されます。 リチャーズ氏は、チームの最新の研究で「錐体ニューロンモデルの有用性を検証しました。アルゴリズムを使用して錐体ニューロンの計算をシミュレートし、錐体ニューロンネットワークがさまざまなタスクの学習を完了できることを確認しました。次に、ネットワークモデルの予備的な抽象化を行い、錐体ニューロンで構成されたこの抽象モデルを使用して、通常の機械学習アルゴリズムとニューラルネットワークによって実行されるタスクと同じ、より複雑なタスクを実行しました」と述べました。 6 注意メカニズム バックプロパゲーション メカニズムでは、アルゴリズムにはデフォルトで「教師」が必要です。具体的には、「教師」はアルゴリズム内の各重みに対する損失値の偏微分勾配です。教師の「ガイダンス」を通じて、アルゴリズムはそれに応じて重みのサイズを変更できます。つまり、エラー情報を提供するメカニズムが必要です。しかし、オランダのアムステルダム神経学研究所のピーター・ロルフセマ氏は、「脳には教師はおらず、運動皮質の各ニューロンに対応する監督情報を伝える器官やメカニズムも存在しないため、各皮質は活性化すべきか休息すべきかを知るすべがない」と述べている。 ロエルフセマ氏は、教師からの情報がなくても、脳は注意メカニズムを利用して同様の効果を達成し、問題を解決できると考えています。 1990年代後半、ロエルフセマ氏とその同僚は、サルが物体を見ると、その物体を表す大脳皮質のニューロンがより活発になることを示しました。サルの脳内の注意情報は教師として機能し、皮質内のニューロンにフィードバック監視情報を提供します。 「これは非常に選択的なフィードバック信号です」とロエルフセマ氏は言う。「これはエラー信号ではありません。すべてのニューロンに『おい、これからこれをやるから、これを始動してくれ』と言っているだけです。」 ロエルフセマ氏は、この注意に基づくフィードバック信号を神経科学の分野における既存の、あるいはまだ発見されていない特定の現象と組み合わせると、生物学的脳においてバックプロパゲーションと同様の学習効果が得られると考えています。例えば、ケンブリッジ大学のウォルフラム・シュルツ氏らは、動物が予想よりも良い結果を生み出す行動をとった場合、動物の脳内のドーパミン系が活性化され、肯定的な動機付け効果を生み出すことを明らかにした。 「ドーパミンは、動物に喜びと幸福感を与える魔法の神経調節物質です。ドーパミンのポジティブな刺激を受けると、それが体中に広がり、ニューロンによるこの反応と行動の認識が強化されます。」 ロエルフセマ氏によると、理論上は、注意のフィードバック信号は、行動に関与するニューロンのみを活性化するはずであり、それらのニューロンは、神経の重みを更新することで全体的な強化信号に反応する。ロエルフセマ氏とその同僚は、このアイデアに基づいてディープニューラルネットワークを実装し、その数学的特性を研究しました。 「このメカニズムは、バックプロパゲーションと同じ数学的結果を達成することが判明しました。しかし、生物学的な観点からは、注意メカニズムの重み調整方法の方が明らかに合理的です。」 ロエルフセマ氏のチームは、2020年12月のNeuroIPSオンライン会議でこの研究成果を発表しました。同氏は、「この方法でディープ ネットワークをトレーニングできますが、バックプロパゲーションより 2 ~ 3 倍遅いだけです」と述べています。その結果、「注意に基づく学習は、生物学的に妥当な学習アルゴリズムの中ですでに最高のものになっています」と同氏は語っています。 しかし、私たちの脳は本当にこれらの一見形而上学的メカニズムを使って学習しているのでしょうか?現在の研究ではこれを証明するには不十分であるようです。これらのメカニズムは、私たちの経験的仮定のほんの一部にすぎません。 「何かが欠けていると思います」とベンジオ氏は言う。「私の経験では、おそらく、これを機能させるために少し修正できる小さなメカニズムか詳細があると思います。」 では、生物学においてどの学習アルゴリズムが合理的であるかをどのように判断するのでしょうか?ヤミンズ氏とスタンフォード大学の同僚たちはいくつかの提案をしている。 1,056 個のディープ ネットワークの学習方法を分析した結果、脳の学習方法は時間の経過に伴うニューロンのサブセットの活動によって決まることが分かりました。この情報はサルの脳の活動の記録から得ることができます。 「適切な観察データを収集できれば、生物学的脳がどのように学習するかを判断するのは非常に簡単であることがわかりました」とヤミンズ氏は語った。 計算神経科学者たちは、こうした利点について考えるたびに、密かに喜びを感じます。コーディング氏は次のように語った。「脳には、バックプロパゲーションと同じくらい効果的な学習方法がたくさんあります。生物の進化は非常に興味深いものです。バックプロパゲーションは効果的であり、進化は私たちをこの方向に導くと信じています。」 |
<<: Google mBERT の秘密を解明: ディープラーニングは人間の言語をどのように処理するのか?
[[329380]]テクノロジーの発展に伴い、人工知能とデータサイエンスはスポーツの分野でますます重...
消費者の実際の購買行動や実際のユーザーレビューのビッグデータ分析に基づいた中国初の「2015年中国電...
[[343995]]ビッグデータダイジェスト制作出典: datasciencecentral編集者...
[[430918]]今日、機械学習 (ML) モデルは大規模に使用され、影響力がますます高まっていま...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ディープラーニングでは、PyTorch と NumPy はデータの処理と変換によく使用される 2 つ...
システム統合は、ソフトウェア システム、情報システム、エンタープライズ システム、モノのインターネッ...
[[244014]]過去 10 年間で、機械学習への関心は爆発的に高まりました。ほぼ毎日、さまざまな...
人工知能は今年もテクノロジー分野で人気を博し続けています。特に、大規模モデルはソフトウェア開発を含む...
「Googleさん、ちょっと恥ずかしいです。」 Gemini のローンチ初日に、人気のコメントがこの...
1 ニューラルネットワークにはさまざまな問題がある従来のプログラムには、よく知られたエラー、抜け穴、...