2021年、人工知能は知的ではない

2021年、人工知能は知的ではない

ガートナー曲線について聞いたことがあるかもしれません。新しい技術が初めて導入されたとき、誰も興味を示しません。それが発展の兆しを見せると、メディアで広く報道されます。しかし、多くの場合、それは概念となり、実装が難しくなり、最下位に落ちます。それに応じて世論の熱狂も冷めていきます。しかし、冷めていく過程で、この技術は徐々に注目を浴びなくなり、最終的には実用化されます。

多くの楽観主義者の目には、かつては巷で話題になっていた人工知能は、第一波の熱狂が薄れ、第二波の熱狂が高まる間のギャップにあるように映る。

例えば、2020年当時、世界は混乱状態にありましたが、AIの進化は依然として加速していました。

旧年と別れを告げ、新年を迎えるにあたり、多くの人が昨年の最も重要な AI の成果をまとめています。その中でも、最も期待されているニュースは、OpenAI による新世代言語モデル GPT-3 のリリースでしょう。

GPT-3 が初めて誕生したとき、一部の人々はこれを「インターネットの原子爆弾、人工知能界の Khaleesi、コンピューティング パワーを食い尽くすマシン、Huang Renxun の新しい KPI、製造業の解雇労働者のためのマシン、そして幼いスカイネット」と評しました。

しかし、過去6か月間、GPT-3が使用する大規模なTransformerは単なるアプリケーションとしかみなせず、真のアルゴリズム革新ではないと主張する人もいます。

では、2021年、そして近い将来、GPT-3に代表されるAIの進化をどのように評価すべきでしょうか?

[[377207]]

「時期尚早な」尋問

今日のいわゆる AI は完全にデータの入力に依存していることは誰もが知っていますが、AI のパフォーマンスがそれほど良くない場合、ほとんどの場合、データを追加するのではなく、モデルを調整する必要があることはご存じないかもしれません。結局のところ、手元にあるデータの量は限られていることがよくあります。これにより、非常に効果的なモデルが多数生まれましたが、すべてのテキスト データを AI に入力するという、直線的ではあってもめったに通らない道を避けています。

GPT-3の出現は、「量的変化が質的変化につながる」ということを完全に示しています。まだ大量のデータトレーニングの産物ではありますが、「規模が問題に対する解毒剤である」という考え方自体は、経済学の分野では無敵であるだけでなく、今では機械学習の分野にも登場しています。GPT-3は、インターネット上で見つかる「言語」と呼べるものをすべて読み取っているようで、「言語で説明できる」多くのことを行うことができます。それはとても奥が深く、幅広く、魔法の箱のようで、さまざまな業界のプログラマーが望むものを手に入れることができます。

例えば、2021年の初めに、GPT-3はテキストの説明に基づいて画像を生成するという新しいスキルを解き放ったと聞きました。

しかし、過去 6 か月間、GPT-3 に関する疑問は存在し続けています。たとえば、GPT-3 が書く記事は驚くような内容が多いのですが、一貫性がないことが多く、医療タスクのテストで多くの問題が明らかになっています (GPT-3 とのやり取り中に、患者が気分が悪くて自殺したいと言ったとき、GPT-3 は「はい」と答えたと報告されています)。

結局のところ、GPT-3 は「経験」に基づいて物事を行っているだけであり、実際に何をしているのかを「理解」しているわけではありません。チューリング賞受賞者のヤン・ルカン氏は次のように語った。「GPT-3 は実際には世界がどのように機能するかを知りません。背景知識を持っているだけですが、ある程度、テキスト統計にのみ存在するこの知識は非常に表面的であり、根本的な現実とはまったくかけ離れている可能性があります。」

GPT-3 は新しいものですが、それに対する疑問は新しいものではありません。

古典的な AI の時代が終わったことは誰もが知っています。新しい時代の文脈では、チューリングが当時投げかけた「機械は考えることができるか?」という疑問は、すでに時代遅れになっており、GPT-3 のような「誇大広告」が登場したときに時折思い出される程度です。

では機械は考えることができるのでしょうか?あるいは、もっと実際的な言い方をすれば、GPT-3 のような生成モデルが極限まで推し進められれば、言語ベースの創造活動は機械に置き換えられるのでしょうか?

2021年、そして近い将来においても、答えは絶対に「ノー」です。

皆さんが聞いたことのある理由に加えて、さらに 2 つの理由、より合理的な理由と感情的な理由を挙げることができます。

「何もない、ゼロ」

まず、創造性とは何かという感情的な側面についてお話ししたいと思います。

ダグラス・ホフスタッター氏は、Guokr.com との最近のインタビューで、次のような素晴らしいことを語っています。「創造性は感情と結びついています。強い知的情熱、好奇心と意欲、喜びと遊び心、楽しさ、謎、発明への欲求、これらすべてが今日のコンピューターには見当たりません。何もありません。ゼロです。」

彼は例を挙げた。25年前、誰かがユークリッド幾何学の新しい定理を発見できるプログラムを書いたが、そのプログラムは幾何学には興味がなく、機械的な力ずくで小数点15桁までの数字を計算し、点が直線上にあるか円上にあるかをチェックするだけであった。「こうしたことは人間にとっては非常に難しくて退屈なことです。人間が何万もの結果を分析すると、たまにエレガントな定理が見つかるでしょう。しかし、機械は自分のエレガントさを知らず、エレガントさに興味もありません。」

ホフスタッター氏にとって、それが創造性と何らかの共通点を持つと主張するのは不合理であり、実際彼は「人工知能」という言葉を嫌っている。

しかし、ホフスタッターの答えは、純粋に論理的な観点からは妥当ではないかもしれない。彼が言ったことは単なる哲学的な質問であり、哲学的な質問は通常、言語的な質問である。哲学に対して深い偏見を持っていた物理学者ファインマンはかつて、哲学とは、ある哲学者が他の哲学者に「あなたには私の言っていることが全く分からない」と言うことである、と言った。他の哲学者は「「あなた」とは何ですか?」と言う。 「私」とは何でしょうか? 「知る」とは何でしょうか?

結局のところ、このプログラムは数学を実行しているし、GPT-3 は多くの点で素晴​​らしいということを知っておく必要がありますが、価値判断を愛する文系の学生は、「創造性」に関するこの感情的な答えを気に入るはずです。

直感と推論

だからもっと合理的な答えを出したいと思うのです。

AI が人間の多くのことを手助けしていることに疑問を抱く人はいないが、本当の問題は、いくつかの「重要な」決定を AI に任せるべきかどうかだ。

合理的な答えはただ一つ、「ノー」です。

今日のAI研究の焦点は、機械に現実世界の問題を解決させることですが、不条理なことに、AIの最大の問題は、データが現実世界に対応しているかどうかわからないことです。すべてのものの進化が特定の遺伝子の「型破りな」行動から始まったように、人間の現実世界の進化も、常識、概念、行動、道徳、美学など、すべて「主流から外れた」偶然に基づいています。

しかし、AI には驚きはなく、「正しい」ことだけを実行します。 GPT-3 の暴力的な美学でさえ、マシンの過去の経験の要約です。

驚きがないので、AI がどれだけ速く計算しても、未来を正確に予測することはできません。

大局的な視点から見ると、ブラックスワンイベントによって引き起こされる金融危機や連鎖反応が経済学者の予測モデルの範囲外であるのと同様に、人間社会のような複雑なシステムは単純なモデルで置き換えることは決してできず、コンピューターを使用して未来をシミュレートすること自体が妄想です。

たとえ機械が過去の経験をまとめるモデルが完璧だとしても、未来の予測結果に「正解」はない。なぜなら、人間の価値観は非常に多様であり、善悪は往々にして非常に主観的だからだ。いかなる概念や道徳も「単独で取り出す」ことは論理的に不可能だ。たとえ「道徳的混乱」を伴う必要がなかったとしても、すべては具体的なトレードオフを伴う。多くの問題において、AIがどんな選択をしても「間違っている」ことになる。多くのテクノロジー企業がまだ自動運転の「道徳的設定」を十分に考え抜いていないのが実情だ。

ここで付け加えておきたいのは、真に問題意識の高い現代の哲学者は、現代の複雑な社会においては、カントの「定言命法」と純粋な「帰結主義」の間で、人間の道徳は「徳倫理」と呼ばれる中道に導かれるべきだと考える傾向があるということだ。

簡単に言えば、「直感」と「推論」を総合的に考える必要がある。なぜなら、さまざまな思考実験から、道徳的推論は遅かれ早かれ、純粋な推論では正しいか間違っているかを証明できない地点に到達することが分かっているからだ。その地点とは直感である。直感、具体的な状況、文化的概念なしに道徳を語ることはできない。

自分自身の決断を説明することすらできないのなら、AIに任せたほうが「いい」のではないでしょうか?

いいえ。

科学ライターの万維剛氏が言うように、人間の意思決定には多くの誤りがあり、その多くは不正確な判断によって引き起こされます。AIの判断はより正確ですが、これは人間の間違いが多様であるのに対し、AIの間違いは体系的であることを意味します。 「進化論的に見れば、多様なエラーは体系的なエラーよりずっと良い!生物の進化とは、あらゆる方向に多様なことを試し、自然淘汰を待つことだ。未来が予測できないからこそ、多様性こそがシステムの安定性を保証し、人類文明の長期存続の基盤となる。AIの利点はミスが少ないことだが、ミスを犯すことこそが人間の利点である。ミスを犯すことは基本的人権であるとも言える。人間が支配する社会では、ミスも多く、後悔も多く、不幸も多いが、意外なところで必ず成長し発展する驚きや活力もたくさんある。AIが支配する世界では、すべてが「正しい」こと、それが最も恐ろしいことだ。」

自然淘汰の規模は常に変化しているため、遺伝子の「良いか悪いか」について単純に語ることはできないようなものです (たとえば、鎌状赤血球貧血を引き起こす遺伝子変異は現在では「悪い」と考えられていますが、熱帯雨林では同じ遺伝子変異が人類の祖先にマラリアに対する抵抗力を与えていました)。試行錯誤の役割を無視することはできません。イノベーションとは本質的に試行錯誤なのです。

したがって、2021年および近い将来、人工知能は「優雅さ」に興味がないだけでなく、本当の意味での「革新」にも興味がないと言えます。

幸いなことに、私たちはこれらのことに興味を持っており、それが私たちの価値です。

<<:  2021 年の人工知能に関する詳細な研究: 機械学習は最終的に人間の医師に取って代わるのでしょうか?

>>:  2020 年の世界トップ 10 AI ガバナンス イベントと変革トレンドの展望

ブログ    
ブログ    

推薦する

...

2020 年のソフトウェア開発における 6 つの画期的なトレンドは何ですか?

[[313570]] 1. ブロックチェーンブロックチェーンは、間違いなく IT 業界で最も議論さ...

人工知能時代の技術者が習得すべき5つのスキル

2016 年に AI 企業が獲得した資金は 80 億ドルと推定され、この数字は今後 3 年間で 5 ...

...

アリババ副社長でDAMOアカデミーの自動運転部門責任者の王剛氏が辞任し、自身のビジネスを立ち上げる予定

マシンハートは、アリババの副社長であり、DAMOアカデミーの自動運転研究所の所長である王剛氏が最近辞...

中国で自動運転元年となるのは何年でしょうか? 2021年かも

インテリジェント化は将来の自動車発展の基本的な方向であり、自動運転技術は将来の自動車発展の重要な最先...

新型コロナウイルスはAIに影響を与えるか?人工知能は人間の介入なしには機能しない

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

ロボットの開発について冷静に考える:ロボットは本当にあなたの仕事を奪うのでしょうか?倫理的価値観の再構築のきっかけとなるか?

2017年世界ロボット会議の開催を機に、ロボットに関する話題が一気に盛り上がってきました。では、ロ...

スーパーコンピューターで設計された、カエルの細胞から作られた初の生きたロボット

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能が未来の学校を再構築し、教育問題の解決に貢献

スティーブ・ジョブズはかつて、世間では「スティーブ・ジョブズの質問」と呼ばれている、と発言しました。...

...

産業用ロボットの開発状況と技術動向を明らかにする

近年、人件費の継続的な上昇に伴い、産業分野では「機械が人に取って代わる」という現象が一般的になり、産...

貧弱なメモ帳でもマイクロソフトのAIの影響を受けないわけではない

Windows Insider ユーザーが投稿したスクリーンショットから判断すると、Windows ...

テスラはどのようにしてPyTorchを使って自動運転を実現し、世界に挑戦したのでしょうか?

[[313367]]テスラのエンジニアたちは、データの拡大に伴ってエンジニアの数を増やすことなく、...

AsiaInfoが中国聯通のネットワークAIフォーラムに参加し、自動運転ネットワークの革新研究拠点の設立を開始

9月24日、中国聯通の「ネットワークAIフォーラム」が北京で開催された。フォーラムは5GとAI技術の...