この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 信じられないかもしれませんが、AI が脳と不思議なほどよく似た方法で音声を処理できることが証明されました。 構造的にも互いに対応している—— 科学者たちはAIにおける「視覚野」を直接的に特定した。 Meta AIや他の機関によるこの研究が投稿されると、すぐにソーシャルメディアで騒動が起こりました。多くの神経科学者やAI研究者が観戦に訪れました。 LeCun 氏はこれを「素晴らしい研究」と称賛しました。自己教師ありの Transformer レイヤーの活動と人間の聴覚皮質の活動の間には、確かに密接な相関関係があるからです。 一部のネットユーザーもこの機会を利用して冗談を言った。「マーカス、申し訳ないけど、AGIは本当にもうすぐ登場するよ。」 しかし、この研究は一部の学者の好奇心も呼び起こした。 例えば、マギル大学で神経科学の博士課程に在籍するパトリック・ミノー氏は次のように質問した。
では、これはどのような研究であり、どのようにして「この AI は脳のように機能する」という結論に至ったのでしょうか? AIは人間の脳のように働くことを学ぶつまり、この研究では、研究者らは音声処理の問題に焦点を当て、自己教師ありモデルWav2Vec 2.0と412 人のボランティアの脳活動を比較しました。 412人のボランティアのうち、351人が英語を話し、28人がフランス語を話し、33人が中国語を話しました。研究者らは被験者に約1時間オーディオブックを聞かせ、その間にfMRIを使用して脳の活動を記録しました。 モデル側では、研究者は 600 時間を超えるラベルなし音声を使用して Wav2Vec 2.0 をトレーニングしました。 ボランティアの母国語に対応して、モデルは英語、フランス語、中国語の 3 種類に分かれています。また、非音声音響シーン データセットでトレーニングされた別のモデルもあります。 その後、モデルたちはボランティアと同じオーディオブックを聴きました。研究者たちはそこからモデルの活性化を抽出した。 関連性の評価基準は次の式に従います。 このうち、X はモデルの活性化、Y は人間の脳の活動、W は標準的なエンコード モデルです。 結果から判断すると、自己教師学習により、Wav2Vec 2.0 は脳のような音声表現を生成できるようになります。 上の図からわかるように、一次聴覚皮質と二次聴覚皮質では、AI はほぼすべての皮質領域における脳活動を明確に予測しました。 研究者らはさらに、AIの「聴覚皮質」と「前頭前野」がどの層に位置しているかも発見した。 この図は、聴覚皮質がトランスフォーマーの最初の層(青)に最もよく一致し、前頭前野がトランスフォーマーの最も深い層(赤)に最もよく一致していることを示しています。 さらに、研究者らは、ネイティブ音素と非ネイティブ音素を認識する人間の能力の違いを定量化し、それを Wav2Vec 2.0 モデルと比較しました。 研究者たちは、AI は人間と同様に、その「母国語」を区別する能力が強いことを発見しました。たとえば、フランス語モデルは英語モデルよりもフランス語からの刺激を認識する可能性が高くなります。 上記の結果は、Wav2Vec 2.0 が特定の言語表現を学習するには600 時間の自己教師学習で十分であることを証明しています。これは、赤ちゃんが話すことを学ぶときにさらされる「データ量」に相当します。 以前の DeepSpeech2 論文では、優れた音声テキスト変換(STT)システムを構築するには、少なくとも10,000 時間の音声データ(ラベル付き)が必要であると考えられていたことを知っておく必要があります。 神経科学とAIコミュニティで再び議論を巻き起こすこの研究に関して、一部の学者は、確かに新たな進歩を遂げたと考えています。 たとえば、Google Brain の Jesse Engel 氏は、この研究により視覚化フィルターが新たなレベルに引き上げられると述べています。 これで、「ピクセル空間」でどのように見えるかを確認できるだけでなく、「脳のような空間」でどのように見えるかをシミュレートすることもできます。 たとえば、元MILAおよびGoogle研究者のジョセフ・ビビアーノ氏は、この研究はfMRIの安静時画像データが有意義であることも証明していると考えています。 しかし、議論の中では疑問の声も上がった。 例えば、神経科学の博士号を持つパトリック・ミノー氏は、同様の研究を行ったが結論には至らなかったと指摘しただけでなく、自らも疑問をいくつか提起した。 彼は、この研究が「音声処理」のプロセスを測定していることを実際に証明するものではないと考えている。 人が話すスピードに比べると、fMRI が信号を測定するスピードは実は非常に遅いため、「Wav2vec 2.0 が脳の行動を学習した」と早急に結論付けるのは非科学的です。 もちろん、パトリック・ミノー氏は、この研究の観点を否定しているわけではなく、自身も「著者のファンの一人」であると述べたが、この研究はより説得力のあるデータを提供するはずだ。 さらに、一部のネットユーザーは、Wav2vecと人間の脳の入力も異なると考えています。一方は処理された波形ですが、もう一方は元の波形です。 この点に関して、著者の一人であるMeta AI研究者のJean-Rémi King氏は次のように要約しています。
あなたが思うこと? 論文の宛先: |
<<: 世界初の「サイボーグ」が死んだ!さようなら、ピーター 2.0
>>: TensorFlow、危険です! Google自身が放棄している
米陸軍研究所は、都市環境における兵士の状況認識力と戦闘能力を向上させるために、認知・神経工学共同技術...
人工知能はあらゆる業界の企業で急速に導入されており、企業は今後 3 年間で AI システムへの支出を...
概要: 膨大な量のデータを効率的に分析するために、科学者はまず大量の数字を細分化する必要があります。...
レノボとブラジルのレシフェにある先端研究システムセンター(CESAR)は、聴覚障害者向けに手話を「翻...
電子コンピューティングと比較すると、光コンピューティングは高速、高帯域幅、低消費電力という利点があり...
[[425382]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
インテリジェントな都市変革の活発なトレンドの中で、AI を使用して交通渋滞を管理することは、誰もが多...
上海ノキアベル株式会社(以下、「ノキアベル」)は、ノキアグループと中国保利集団の子会社である華新郵電...
国内外の新車メーカーの急速な台頭により、自動車の知能レベルは向上し続けています。車両の中央コンピュー...
ニューラル ネットワークについて学んだことのある人なら誰でも、ニューラル ネットワークには非常に一般...