今日では、驚くほど人間らしい文章の一部は、実際には大量の人間の文章でトレーニングされた AI システムによって生成されています。人々は、流暢な言語は思考し、感じる人間から生まれるものだと想定するように条件付けられているため、反証を見つけるのは困難であり、AI モデルが流暢に表現できるということは、それが人間のように思考し、感じるということであると想定する傾向があります。 そのため、元 Google エンジニアが最近、Google の AI システム LAMDA は自己認識機能を備えていると主張したのも、驚くには当たらない。なぜなら、LAMDA は自身の感情に関するテキストを巧みに生成できるからだ。この事件とその後のメディア報道により、人間の言語の計算モデルが生きているという主張に疑問を投げかける記事や投稿が数多く発表されました。 Google の LaMDA などのモデルによって生成されたテキストは、人間が書いたテキストと区別するのが難しい場合があります。この素晴らしい成果は、文法的に正しく意味のある言語を生成できるモデルを構築する数十年にわたるプログラムの結果です。人間の言語に近いデータとルール セットを備えた今日のモデルは、いくつかの重要な点でこれらの初期の試みとは異なります。まず、彼らは基本的にインターネット全体についてトレーニングを受けます。 2 番目に、隣接する単語間だけでなく、離れた単語間の関係も学習できます。 3 番目に、内部的に非常に調整されているため、設計したエンジニアでさえ、なぜある単語のシーケンスが生成され、別の単語のシーケンスが生成されないのか理解するのが困難です。 大規模な AI 言語モデルは流暢な会話を行えます。しかし、彼らには伝えるべき全体的なメッセージはなく、彼らのフレーズは、彼らが訓練されたテキストから抽出された一般的な文学的なルーチンに従う傾向があります。人間の脳には、言葉の背後にある意図を推測するシステムが組み込まれています。会話をするたびに、脳は自動的に会話相手のメンタルモデルを構築します。次に、相手の発言を基に、その人の目標、感情、信念をモデルに記入します。発話からメンタルモデルへのジャンプはシームレスで、完全な文を受け取るたびにトリガーされます。この認知プロセスにより、日常生活で多くの時間とエネルギーが節約され、社会的な交流が大幅に促進されます。しかし、AI システムの場合は、何もないところからメンタルモデルを構築するため失敗します。 大規模な AI 言語モデルに人間性があると人々に思わせるのと同じ認知バイアスが、実際の人間を非人道的に扱う原因にもなり得るというのは、悲しい皮肉です。社会文化言語学の研究によると、流暢な表現と流暢な思考の間に強いつながりがあると想定しすぎると、自分とは異なる人々に対する偏見につながる可能性があることが示唆されています。たとえば、外国語のアクセントを持つ人は、知能が低いとみなされることが多く、適性がある仕事に就ける可能性が低いとされます。同様の偏見は、米国南部英語など、あまり高貴ではない方言に対しても、手話を使用する聴覚障害者に対しても、吃音などの言語障害を持つ人々に対しても存在する。こうした偏見は極めて有害であり、根拠がないことが繰り返し証明されている人種差別的、性差別的な思い込みにつながることがよくあります。 |
>>: ディープラーニングの「記憶喪失」に応えて、科学者たちは類似性に基づく重み付けインターリーブ学習を提案し、PNASに掲載された。
最近、Magiという検索エンジンが注目を集めています。この検索エンジンは、私たちが持っている一般的な...
[51CTO.com クイック翻訳] ご存知のとおり、人工知能 (AI) は 1956 年の誕生以来...
誰のため?なぜ?コミュニティ顔認識システム導入の需要の源と目的多くの居住コミュニティが顔認識システム...
ノアが編集海外メディアのザ・ヴァージは北京時間今朝未明、生成AIをめぐる熾烈な競争の中で、バイトダン...
[51CTO.com からのオリジナル記事] 画像学習は高度なアルゴリズムであり、画像への高い適応...
Python は画像やビデオから顔を検出して認識できます。顔の検出と認識は、コンピューター ビジョ...
1月17日、新世代の大規模言語モデルShusheng Puyu 2.0(InternLM2)が正式に...
[[407838]]ヒントン氏はツイッターでちょっとした議論を始めた。「ニューラルネットワークを設...
[[311778]] 5G、人工知能、モノのインターネットなどの技術が徐々に成熟するにつれて、スマ...