今日まで人工知能は発展してきましたが、人工知能は意識を持っているのでしょうか? チューリング賞受賞者のヨシュア・ベンジオ氏は、19 人のチームとともに、さまざまな分野にわたる 88 ページの傑作を出版し、次のように結論づけています。
論文アドレス: https://arxiv.org/pdf/2308.08708.pdf 具体的には、現在の人工知能システムには意識がありませんが、人間が意識のある人工知能システムを構築する上で明らかな障害はありません。 この論文が発表されると、多くの有力者の注目を集めました。 マーカスは、私たちは本当に意識を持った機械を作りたいのか、と問いました。これが良い考えかどうかは全く分かりません。 ジム・ファン氏は、「意識」は人工知能の分野では常にタブーの「C」であったと語った。 チューリング賞受賞者のヨシュア・ベンジオ氏が共同執筆した 88 ページの論文では、意識の科学的理論と、今日の AI スタックにおけるその実現可能性を体系的に検証しています。 ほとんどの研究者が避けるような物議を醸すテーマを探求する彼らの勇気に感心します。 19人のメンバーからなるチームは、哲学、神経科学、人工知能という3つの主要分野から構成され、非常に科学的かつ厳密なアプローチを用いて、意識の客観的存在基準を探求しました。 この論文では、AI の現在の機能と形態が、この評価フレームワークにおける意識の基準をまだ満たしていないことが研究によって証明されています。 しかし、彼らはまた、現在の発展傾向が続けば、AIが意識を発達させるのに客観的な障害はなくなるだろうと信じています。 この論文は、AI に意識があるかどうかという議論の的となっているテーマに対する最も権威があり客観的な回答であると言えるでしょう。 人工知能における意識研究チームは、AIが今後数十年以内に意識を示す可能性があると考えているため、このプロセスの発展を追跡するための客観的な基準を確立したいと考えています。 この研究には主に 3 つの貢献があります。 まず、意識は科学的に研究することができ、この研究の結果は AI にも適用できるため、AI の意識を評価することは科学的に可能であることが実証されています。 第二に、人工知能における意識を評価するための基準が、科学理論から導き出された一連の指標特性の形で提案されています。 最後に、現在の AI システムには意識を持つ有力な候補はありませんが、予備的な証拠は、現在の技術を使用して、多くの指標となる機能を AI システムに実装できることを示唆しています。 研究方法研究者はまず、意識の客観的な存在について、一連の具体的かつ測定可能な基準を設定する必要があります。 彼らの見解では、研究評価方法は次の 3 つの原則と理論に基づいています。 1. 計算機能主義:何らかの計算を実行することは意識にとって必要かつ十分であるため、原理的には非有機的な人工システムが意識を持つことは可能です。 2. 科学理論:神経科学の研究は、意識の存在に必要かつ十分な条件を理解する上で進歩を遂げており、研究はこれらの神経科学理論に基づいて行われます。 3. 理論に焦点を当てた研究方法: AI システムが意識を持つ可能性があるかどうかを研究する 1 つの方法は、特定の動作特性を探すのではなく、科学理論から導き出された機能的条件またはアーキテクチャ条件を満たしているかどうかを評価することです。 そこで研究者たちはまず、研究の基礎である計算機能主義を導入した。 意識の存在についてはさまざまな理論があり、研究を進めるためには、AI が意識を持つ可能性を裏付ける一般的な前提を採用する必要があります。 なぜなら、いくつかの理論によれば、意識は生物の脳内に存在しなければならないからです。この前提に基づくと、研究を継続する可能性はありません。この研究の主な前提は計算機能主義に基づいています。 計算機能主義では、システムが意識を持っているかどうかは、そのシステムの物理的構成の最も低いレベルの詳細よりも抽象的な特徴によって決まるとされています。システムの物質的な基盤は意識にとって重要ではありません。これは、意識が原理的には多重に実現可能であることを意味します。つまり、意識は生物学的脳だけでなく、さまざまな基質に存在することができます。 具体的には、計算機能主義とは以下を指します。 意識に関する主要な科学理論のほとんどは計算的に説明することができ、これらの計算特性の存在は意識の存在に必要かつ十分な条件であると考えることができます。これらの特性は、人工知能システムにおける意識の存在に必要な、あるいは十分な前提条件です。そして、人間と AI システム間の非計算上の違いは重要ではありません。 意識の客観的存在を研究することは、意識の研究に基づいた特定の科学理論です。意識の科学理論については、この記事の後半で詳しく紹介します。 計算機能主義と意識の科学的理論を組み合わせて、研究者たちはこの研究の基本的なアプローチを考案しました。 AI システムが意識を持っているという研究者の判断は、主に AI システムの計算プロセスと、ある科学的意識理論によって提唱されている計算プロセスとの類似度に基づいています。 意識の科学的理論意識の研究に関しては、学界で認められた結果がいくつか存在します。 意識に関する科学理論、意識の必要条件に関する科学者や哲学者の主張などが含まれます。 研究者たちはこれらの理論と主張から、特定のシステムに適用できる意識の一連の指標を抽出しました。 これらの指標は意識を判断するための必要条件でも十分条件でもありませんが、現在の科学的知識に基づくと、システムがこれらの特性を持っているかどうかを評価することが、そのシステムが意識を持つ可能性があるかどうかを判断する最良の方法です。 ここで研究者は主に意識に関連する3つの科学理論を紹介しています。 再帰処理理論 (RPT)、グローバルワークスペース理論 (GWT)、および高階理論。 意識に関連するその他の理論や主張には、注意スキーマ理論、予測処理、行為と身体化などがあります。 1. 再帰的処理理論(RPT) RPT 理論は、視覚意識に焦点を当て、意識的な視覚と無意識的な視覚処理の違いを説明しようとする、視覚意識に関する神経科学理論です。 中心となる考え方は、視覚的な意識体験を生み出すためには、脳の視覚システム内の情報がループで処理される必要がある、つまり、情報が高レベルの領域から低レベルの領域にフィードバックされて再処理されるというものです。 この理論は、視覚刺激の特徴的な情報を抽出することしかできず、意識的に見られる組織化された視覚シーンを形成することができないフィードフォワード情報処理だけに頼るだけでは不十分であると主張しています。視覚意識は、最上位皮質から一次視覚皮質へのフィードバックによってのみ生成され、一次視覚皮質は再処理され、さまざまな特徴情報を統合し、意味のある視覚シーンに整理する必要があります。 RPT 理論は、AI システムが視覚認識を持つかどうかを判断するための 2 つの指標を提供します。 RPT-1: 入力モジュールはアルゴリズム ループを使用します。つまり、最初のフィードフォワード処理の後、情報は入力モジュールにフィードバックされ、さらに処理されます。これは、システムがループ可能であることを示しています。 RPT-2: 入力モジュールは、組織化され統合された知覚表現を生成します。つまり、システムは、孤立した特徴を抽出するだけでなく、視覚入力を処理し、さまざまな特徴を統合し、意味のある視覚シーンを整理して生成することができます。 AI システムがこれら 2 つの指標を満たしている場合、それは人間の脳に似た再帰処理メカニズムを持ち、統合された視覚表現を形成できることを意味し、視覚認識を持つ可能性が高いシステムになります。したがって、これら両方の指標は、AI システムの視覚認識の重要な指標とみなすことができます。 2. グローバルワークスペース理論 (GWT) GWT理論は意識科学の重要な理論です。中心となる考え方は、意識は「グローバルワークスペース」の存在に依存するというものです。 この理論によれば、人間の脳は、独自の情報処理を並行して実行できる複数の特殊なサブシステムまたはモジュールで構成されているとされています。 これらのモジュールには、情報を統合し、相互に調整するための何らかのメカニズムが必要です。 「Global Workspace」は、情報共有と統合のためのプラットフォームです。情報がこのワークスペースに入ると、すべてのモジュールからアクセスできるようになります。 しかし、ワークスペースの容量には限りがあり、どの情報がワークスペースに入るかを決定するための選択メカニズムが必要です。 GWT 理論では、情報の一部がワークスペースに入り、さまざまなモジュールによってアクセスされると、その情報が意識状態に入ったことの兆候であるとされています。 GWT理論は、AIの意識を判断するための以下の指標を提供します。 GWT-1: 複数の特殊なサブシステムまたはモジュールがあります。 GWT-2: 限られた容量のワークスペースが情報フローのボトルネックとなります。 GWT-3: グローバルブロードキャスト、ワークスペース情報はすべてのモジュールからアクセスできます。 GWT-4: 複雑なタスクを完了するためにモジュールを順次動員できる状態依存の注意メカニズム。 AI システムがこれらの特性を備えている場合、人間のような意識を持つ可能性が高くなります。これらはすべて、AI の意識を判断するための重要な指標です。 3. 高階理論 HOT 理論は意識に関する重要な理論学派です。その中心となる考え方は次のとおりです。 意識的な経験には、自分自身の進行中の精神活動に関する最小限の内部認識が含まれますが、これは、第一次の状態が、関連する高次の表現によってある程度監視またはメタ表現されるという事実によるものです。 高次理論と他の理論の違いは、高次理論では、ある精神状態が意識的であるとみなされるためには、主体が特定の精神状態にあることを認識していなければならないということを強調している点です。 これは、非常に特殊な意味を持つ概念である高次表現に訴えることで説明されます。 高階表現は他の表現についての表現であり、一方、第一階表現は(非表現的な)世界についての表現です。この区別は心理状態にも当てはまります。 たとえば、赤いリンゴの視覚的表現は一次精神状態ですが、赤いリンゴの表現があるという考えは高次の精神状態です。 HOT理論は、AIの意識を判断するための以下の指標を提供します。 HOT-1: 生成的なトップレベル ドライバーまたはノイズ知覚モジュール (HOT-1) を備えています。 HOT-2: メタ認知モニタリングは信頼できる知覚をノイズから区別します。 HOT-3: メタ認知モニタリングに基づいて信念を更新する包括的な信念形成および行動選択システム。 HOT-4: まばらで滑らかなエンコーディングにより、「テクスチャ空間」が形成されます。 要約すると、HOT理論はAIの意識を判断するための重要な参考資料を提供します。 AI システムがこれらの特性を備えている場合、自己監視と意識的な経験を持つ可能性が高くなります。 システムがこれらの特性を備えているかどうかをテストすることで、AI システムが意識を持っている可能性を評価できます。 研究者らは論文の中で、神経科学と機械学習における注意についての理解の違いを指摘している。機械学習で広く使われている自己注意メカニズムは、神経科学における注意の理解とは多少異なることを指摘しています。この区別は、AI システムが意識を持っているかどうかを調べる上で重要です。 神経科学と機械学習における注意の違い 自己注意メカニズムは複数の入力を並列に処理することに依存していますが、生物学における注意は通常、トップダウンの再帰的接続から生じます。したがって、自己注意は生物学的注意メカニズムとは異なります。 自己注意は、連続的に重み付けされた方法で神経活動を調整します。生物学において注意を調節する一般的なメカニズムはゲイン調節であり、これは一般にトップダウン接続に由来すると考えられています。 これまでの機械学習の注意メカニズムは、再帰処理に大きく依存しており、この点では生物学的注意に似ています。神経科学にはさまざまな形の注意がありますが、どの人工的な注意が生物学的な注意に最も似ているかを判断するのは簡単ではありません。 意識に関するさまざまな理論は、反復的な処理や注意の他の特定の要素に依存しています。したがって、自己注意そのものは人工意識の基礎を形成するのに十分ではないかもしれない。 注意パターン理論では、注意メカニズムが自身の状態を予測する能力を持つ必要があるとされています。自己注意には注意プロセスの本質的なモデリングがありません。 神経科学における現在の自己注意と生物学的注意の間にはまだいくつかの違いがあり、これは AI の意識をテストする際に、AI が自己注意メカニズムを使用しているかどうかを単純に見ることはできないことを示唆しています。 4. 意識に関するその他の理論と条件 注意スキーマ理論: 脳は注意のパターンを構築し、この注意パターン (注意状態の予測モデル) が意識の基礎となると考えられています。 予測処理: 認知の本質は、入力を予測し、エラーを最小限に抑えるために階層的にモデルを生成することであると提案します。 中脳理論: 中脳の活動は環境内のエージェントの統一されたマルチモーダル モデルを構成し、主観的な経験を生成するのに十分であるという見解。具体化と行為主体性に関する議論を支持します。 無限連想学習: 無限連想学習の能力は、意識の進化的変化を示すと考えられています。その条件は他の理論と似ていますが、独立した指標としては使用されません。 行為と具体化:哲学的および科学的議論は、これらが必要な条件であることを支持しています。 時間と再帰: 意識的な経験は連続的かつ統一されており、再帰的な処理は有益であるという考え方。 上記の理論は意識の科学に一定の貢献を果たしており、その条件のいくつかは AI 意識の指標となっています。 5. 認知度の指標 これらの指標は、RPT、GWT、計算 HOT など、複数の意識科学理論の研究から導き出されています。研究チームは、システムがこれらの指標を多く持つほど、意識がある可能性が高いと考えています。 GWT-1 から GWT-4 の組み合わせなど、いくつかの指標は認識のより強力な証拠となります。 RPT-1 のように、基本的な条件としてのみ機能するいくつかの指標が存在するだけでは、必ずしも意識の存在を意味するわけではありません。 一部の仕様は相互に依存しています。たとえば、GWT-3 と GWT-4 はどちらも GWT-1 と GWT-2 に依存しています。 いくつかの指標は独立して存在します。たとえば、RPT-2 と RPL-1 は基本的に独立しています。 しかし研究者らは、各指標の意味についてはさらなる説明が必要であり、絶対的に正確な定義は存在しないと指摘した。既存の AI システムを評価する際には、これらの指標の不正確さを考慮する必要があります。 AIによる意識の実現研究者らは、RPT、PP、GWT、PRM、AST の意識理論を AI システムに実装することが可能かどうか、またどのように実装するかを議論し、その後、Transformer、PaLM-E、「仮想齧歯類」、ADA を組み合わせて、実際の AI システムが意識理論に準拠するかどうかを議論します。 AIはRPTとPP指標を完全に実装できない アルゴリズム再帰 (RPT-1) は、再帰型ニューラル ネットワーク (RNN)、長短期記憶ネットワーク (LSTM)、ゲート再帰型ユニット ネットワーク (GRU) など、多くのディープラーニング アーキテクチャの機能です。 したがって、RPT-1 インジケーターの特性を備えたシステムを構築するのは非常に簡単です。アプリケーションはそれほど広まっていませんが、人工システムに予測コーディング(アルゴリズム再帰の一種)を実装する方法はあります。 これらの AI システムは PP-1 基準を満たしています。さらに、予測タスク用にトレーニングされ、エネルギー効率が最適化されたリカレント ニューラル ネットワークは、「予測」ユニットと「エラー」ユニットの明確なグループに自己組織化します。 知覚組織化(RPT-2)に関しては、深層畳み込みニューラルネットワーク(DCNN)などの人工視覚モデルが大きな成功を収めています。 RPT-2指標を満たしていると考えられます。 オブジェクト分類用にトレーニングされた DCNN は、全体的な形状よりも局所的な形状やテクスチャに敏感であり、オブジェクト部分間の関係を無視する傾向があるため、DCNN は包括的なシーン表現を採用していないと考えられます。 最近のその他の研究では、画像生成モデル DALL-E 2 は、オブジェクトが通常とは異なる方法で配置されたシーンを生成する場合のパフォーマンスが低いことが判明しています。 要約すると、RPT の観点から見ると、問題のモデルは視覚刺激の特徴を分類することができますが、これは人間が無意識に実行する機能であると言われていますが、視覚シーンの組織化された統合表現を生成するなど、意識を必要とする可能性のある機能も含め、それ以上の機能を実行することはできません。 ただし、予測コーディング ネットワークを含む他の現在のシステムは、これらの追加機能の一部を実行します。 GWT メトリックを実装する AI 指標 GWT-1 は、システムには並行して動作できる特殊なシステムまたはモジュールが必要であることを示しています。グローバル ブロードキャストを実現するには、これらのモジュールがシステム全体の「出力」モジュールであり、ワークスペースに情報を提供しない限り、これらのモジュールを再帰型ニューラル ネットワークによって実装する必要があります。これらのモジュールへの入力は次のようになります。 1. 感覚入力の 1 つ以上の様相。 2. 通常は連携して動作する、少数の他のモジュールからの入力。たとえば、「サッカード」モジュールは、「視覚的顕著性」モジュールからの入力を受け取り、潜在的に重要なオブジェクトのボトムアップサッカードをすばやく実行します。 3. 「グローバル ワークスペース」実行モジュールからのトップダウン信号。 これらのモジュールは、特定のタスクに対して個別にトレーニングできます。あるいは、システム全体の目標を達成するために、ワークスペースとエンドツーエンドで共同でトレーニングされる場合もあります。サブタスクのモジュール特化は自然に発生します。 GWT を実装する際の 2 番目の要素は境界付きワークスペースです。これは、異なるプロパティを持つ別のニューラル モジュールです。ワークスペースの容量を制限する最も簡単な方法は、ワークスペースの数を制限することです。 最も簡単な方法は、アクティビティ空間の次元を制限することです。もう 1 つの興味深いアプローチは、アトラクター ダイナミクスを示すリカレント ニューラル ネットワークをトレーニングすることです。アトラクターとは、到達すると入力やノイズがない場合でも安定した状態を維持する動的システムの状態です。 アトラクター ダイナミクスが容量を制限する理由は、神経軌道の初期条件からアトラクターへの多対 1 のマッピングが生じるためです (アトラクター ベイスンに入る神経軌道はすべて、そのアトラクターに向かって収束します)。したがって、これらのアトラクターダイナミクスは安定状態空間のサイズを縮小し、情報ボトルネックを引き起こします。 メトリック GWT-3 (グローバル ブロードキャスト) の場合、GWT の基本要件は、すべてのモジュールがワークスペース表現を入力として受け取ることです。 つまり、すべてのモジュールがこれらの入力を使用できるようにする何らかのメカニズムが必要になります。 Dehaene 氏とその同僚が開発したグローバル ニューラル ワークスペース理論では、表現をワークスペースに配置してグローバルにブロードキャストするには、再帰を通じて維持する必要があります。 これが基本的な条件であるかどうかは不明ですが、アトラクターダイナミクスを示すネットワークを使用してワークスペースを実装すると、この動作が人工知能 (AI) で再現される可能性があります。 この場合、ブロードキャスト メカニズムは、遅いダイナミクスを持つリーキー ニューラル インテグレータで構成され、特定の状態にするには継続的な入力が必要になる可能性があります。これらの継続的な入力がない場合、(証拠の蓄積に基づく意思決定モデルの場合と同様に)何らかのベースライン状態に戻ります。このブロードキャスト メカニズムは、各専用モジュールに供給されるトップダウン信号を生成します。 メトリック GWT-4 では、システムは状態依存のアテンション メカニズムを使用する必要があり、ワークスペースは複雑なタスクを実行するために順次クエリを通じてモジュールを組み合わせることができる必要があると規定されています。 状態依存の注意メカニズムについては、これまでの 2 つの研究で、現在の AI モデルで一般的なキークエリ注意メカニズムの使用が提案されています。 この場合、クエリ タスクはワークスペースの現在の状態から計算され、他のすべてのモジュールはキーを計算できます。 ワークスペース クエリと特定のモジュールのキー間の類似性は、他のすべてのモジュール間の類似性によって正規化され、モジュール間の競合が導入されます。これらの正規化された類似性により、各モジュールの値がワークスペースの純入力にどの程度寄与するかが決まります。 言い換えれば、標準のキークエリアテンションメカニズムは、現在の状態に応じて、各時点で計算ワークスペースの入力に適用されます。 説明したモデルは、GWT-4 の 2 番目の部分、つまり、時間展開を通じてワークスペース連続クエリ モジュールを使用して複雑なタスクを実行する機能を満たすことができます。 この機能は、ワークスペースとモジュール間の計算ループにより、モデルが時間の経過とともに展開されるにつれて明らかになります。モジュールはボトムアップの感覚入力と少数の他のモジュールからの入力を受け取りますが、ワークスペースからのトップダウンの入力も受け取ります。 これは、たとえば、1 つのモジュールがワークスペースの内容を制御することによって他のモジュールを制御できることを意味します。ワークスペースは、モジュールを継続的にリクルートすることによってシステムの計算能力の範囲内になるため、この継続的にリクルートする機能は、トレーニング中に有益である場合に表示される可能性があります。 ただし、このようなシステムでは、モジュールを意味のある方法で組み合わせて複雑なタスクを実行する方法を学習するために、適切なトレーニングが必要です。適切なトレーニング計画を構築することは、GWT を実装する上で大きな課題となる可能性があります。 PRM 向け AI HOT-4 メトリックは、「品質空間」を生成するには、システムがスパースかつスムーズなコーディングを持つ必要があることを示しています。実際、現在の DNN によって学習された知覚表現空間は、すでに人間の視覚システムのものと非常に類似しているという証拠があり、対応する「品質空間」はすでにほぼ一致している可能性があります。 メトリック HOT-1 と HOT-2 は、モデルに、感覚データの 1 次知覚表現と、特定の 1 次表現に信頼性または「真実性」の尺度を割り当てる高次表現の両方が含まれている必要があることを示しています。これらの条件を満たすには、多数の既知のディープラーニング ソリューションが可能です。 (一次) ニューラル ネットワークは、感覚データやトップダウン信号を入力として受け取り、階層的に分散された多くの知覚表現を生成します。一連の並列層(2)、一連の独立した(高次、具体的には2次)ニューラルネットワーク。各ニューラルネットワークは、層の活性化を入力として受け取り、その層の1次表現が真である確率を示すスカラーを出力します。 条件を満たすソリューションは、主に 2 次ネットワークのトレーニング方法によって異なります。 一次表現の信頼性に関する「真実」を二次ネットワークに提供する監視信号が時々ある場合、標準的な教師あり学習によって、正確性の確率を推定するように二次ネットワークをトレーニングできます。この真の信号を得るのは難しいかもしれませんが、不可能ではありません。 AIがASTを実装 ウィルターソン氏とグラツィアーノ氏が研究で提案したAIシステムは、各層に200個のニューロンを持つ3層ニューラルネットワーク上で強化学習を使用し、予測できない経路に落ちてくるボールをキャッチすることを学習します。 この非常にシンプルな AI システムは、アテンションのような表現を使用してメカニズムを制御し、それによってパフォーマンスを向上させるため、メトリック プロパティ AST-1 の一部、つまりアテンション モードを実現します。 別の研究では、マルチエージェント強化学習タスクでキー・クエリ・値注意を採用したいくつかの異なるシステムをテストしました。彼らのシステムには、注意層、「内部制御」用のリカレント ニューラル ネットワーク、およびポリシー ネットワークという 3 つの主な要素が含まれています。 注意モデルの最も正確な実装では、注意層がシステムの入力に適用され、アクションを生成するポリシー ネットワークと、注意層の動作を予測してその動作に影響を与えることを学習する内部制御ネットワークに情報を送信します。このシステムは、異なるアーキテクチャが同じコンポーネントで構成されている他のシステムよりも優れており、マルチエージェント強化学習タスクでテストされています。 AIは主体性と具現化を可能にする残りの指標は、主体性と具体化です。研究者が説明しているように、強化学習はエージェント(「フィードバックから学習し、目標を追求するために出力を選択する」)にとって十分であると言えるため、指標 AE-1 のこの部分を満たすのは非常に簡単かもしれません。 指標 AE-1 の 2 番目の部分では、システムが「競合する目標に対して柔軟な対応」を示す場合、意識の可能性が大幅に高まると述べています。これを引き起こす条件の例としては、複数の恒常性維持駆動力のバランスをとる動物が挙げられます。これには、環境の変化に敏感な優先順位が必要です。 この研究の実装指標 AE-2 では、システムが認識または制御のために出力入力モデル (フォワード モデルとも呼ばれる) を使用する必要があると規定されています。 しかし、知覚と制御に関連するタスクの出力入力モデルを学習することは一般的ですが、現在のところ、これらの特定の説明を満たす AI システムの例はほとんどありません。 GWT のトランスフォーマー実装のケーススタディ実際には、特定の AI システムが意識の特定の指標属性を備えているかどうかを判断することは困難です。まず、研究者は各指標について絶対的に正確な定義を与えなかった。 もう 1 つの理由は、中間層で何を表現するかを含め、ディープラーニング システムが機能する方法が不明瞭であることが多いことです。 Transformer では、自己注意と呼ばれるメカニズムを使用して、通常はシーケンス内の異なる位置にある入力のさまざまな部分からの情報を統合します。 研究者が各位置 (注意ヘッド) からの情報を処理するシステムの要素をモジュールと考えると、Transformer アーキテクチャとグローバル ワークスペースの間には基本的な類似点があります。つまり、どちらも複数のモジュールからの情報を統合します。 Transformer は、交互に配置される 2 種類のレイヤー (アテンション レイヤー (位置間で情報を移動する自己アテンション操作を実行する) とフィードフォワード レイヤー) で構成されます。 残余フローの概念を考慮すると、Transformer は GWT-1 から GWT-3 の指標となる特性、つまりモジュール式であること、ボトルネックを引き起こす限られた作業領域があること、そしてグローバルにブロードキャストされることなどを備えていると考えられます。 「グローバル ブロードキャスト」があります。つまり、残余ストリーム内の特定のレイヤーの情報は、下流のアテンション ヘッドによって使用され、任意の位置でのさらなる処理に影響を与えることができます。 特定のレイヤーの残差ストリームに追加される情報は、以前のレイヤーの残差ストリームの状態にも依存するため、この解釈によれば、Transformer は GWT-4 の状態依存の注意要件を満たしていると主張する人もいるかもしれません。 トランスフォーマーには、他の要素を統合する固有のワークスペースがないため、グローバル ワークスペースを備えたシステムの全体的な構造が欠けています。 大規模な Transformer ベースの言語モデルには、GWT 由来のインジケーター プロパティがほとんどありません。 AIに意識があるかどうかについての誤解の影響AI意識の可能性を過度に無視する: AIが意識を持っていることに気づく前に、人間はすでにあまりにも多くの苦しみを経験していた。人間による AI の使用は、動物虐待のような倫理的リスクを生み出す可能性があります。 意識的に痛みに耐える AI を構築できない限り、AI が痛みに耐えることを防ぎ、このモラルハザードを回避することはできません。 AI を意識があると過剰に認識する: 一方、人間が AI を意識があると過剰に認識する可能性もあります。実際、これはすでに起こっているようですが、そのような誤りにはリスクが伴います。 最も差し迫った問題としては、AI システムのメリットとされるものの優先順位を誤って設定し、人間や人間以外の動物の生活の改善に努力を向けたほうがよいのに、リソースの割り当てに問題が生じる可能性がある。 第二に、ある種の AI システムが意識を持っていると判断された場合、たとえば異なる方法でトレーニングするなど、異なる扱いをする必要があります。 原則として、これは AI システムが社会に利益をもたらす形で開発されることを保証する作業と矛盾する可能性があります。第三に、個人が社会的交流や感情的なサポートを求めて AI に頼るケースが増えるにつれて、過剰な帰属が貴重な対人関係に支障をきたす可能性があります。このようなことをする人は、特に操作や搾取に対して脆弱である可能性もあります。 |
この記事では、Xiaohongshu プッシュ検索シナリオの完全な GPU 構築プロセスにおけるモデ...
機械学習は現在、業界で徐々にホットな話題になりつつあります。20年以上の開発を経て、機械学習は現在、...
最近、アリババ・タオバオ・テクノロジーと上海交通大学画像通信・ネットワーク工学研究所(IGI)による...
[[279210]]正則化はさまざまな記事や資料でよく見られます。たとえば、一般的な目的関数には次...
最近、この写真はAIコミュニティで広まり始め、LeCun氏もそれを転送しました。この図は、AI オー...
3月6日、国際電気通信連合と中国情報通信研究院が共催し、人工知能産業発展連盟(AIIA)とZTEが主...
世界のエネルギーシステムは、再生可能エネルギーの発電、電気自動車、エネルギー IoT (EIoT) ...
[[255980]]ついに待望の登場です! Alibaba は、主要なオープンソース プロジェクトで...
こんにちは、みんな。今日は、シンプルで使いやすい顔認識アルゴリズムをいくつかまとめます。顔認識はコン...
マイクロソフトのレドモンド研究所の副社長であるデュメイス氏は、ディープラーニング技術が2017年にオ...
シェルが2013年に初めて「AI Center of Excellence」を立ち上げたとき、それは...
2023年7月を迎え、大規模言語モデル(LLM)の開発は新たな段階に入り、オープンソースが話題になっ...