AI は人工知能の略です。AI の定義は、1950 年代にまで遡ります。当時、さまざまな分野の専門家グループが米国のダートマス大学に集まり、ヒマワリの種を囲んで話し合いました。議題は、機械を使って人間の知能を模倣する方法でした。結果、私たちは2か月間話し合いました。 この時期に、数学の博士号を持つジョン・マッカーシー氏が、このテーマを人工知能と定義し、関連する定義と解釈を示しました。最終的に、彼の発言はすべての人に認められ、AIという名前が生まれました。 ジョン・マッカーシー氏は、AI技術の発展について次のように説明した。「原理的には、学習のあらゆる側面、あるいは知能のあらゆる特徴は、機械がそれを模倣できるように正確に記述できる。機械に言語を使用させ、抽象的な概念やアイデアを形成させ、現在人間に任されている問題を解決させ、機械自身を向上させる方法を人々は模索するだろう。」 簡単に言えば、機械は人間のように考え、模倣し、問題を解決することを学ばなければならず、その過程で機械自身も改善することを学ばなければなりません。
ジョン・マッカーシー(出典:インターネット) 人工知能のボトルネック Siri、Xiaoai、XiaoyiなどのさまざまなAI音声アシスタントの問題解決プロセスは、一般的に次のようになります。音声またはテキストが端末(携帯電話など)に入力されると、端末はそれをサーバーにアップロードして自然言語理解を行います。状況と意図を分析した後、サーバーは特定の条件に従ってビッグデータから回答を検索し、音声またはテキストを通じてフィードバックします。もちろん、検索エンジンによる自動検索も含まれます。 この場合、具体的な質問をすれば音声応答を得られる可能性が高くなります。そうでない場合は、デフォルトで検索結果が表示されたり、理解できないことを表明して哀れな顔をしたりします。 たとえば、明日の吉林省の天気はどうでしょうか?すると、Siri のフィードバックは特定の天気予報ウェブサイトからの一文となり、音声でアナウンスされます。また、寒くなってきているのでもっと服を着たほうがいい、雨の日に旅行するときは傘を忘れずに持っていくように、といった文章も追加されることがあります。 夕方、妻に同じ質問をしたところ、「ネットで調べたら?何?出張なの?誰と行くの?男?女?」と返ってきた。 私は実験をしていて、原稿の材料を準備していると言ったら、彼女は携帯電話を開いて「明日は吉林省で小雪が降ります。最高気温は2度、最低気温は-9度です。凍え死んでしまいますよ!」と言った。 もし私の妻がロボットなら、Siriと私、どちらが本物のAIに近いと思いますか?
Siri だと思う人もいるかもしれません。我が家の「ロボット」よりずっといいです。優しく話すだけでなく、すぐに答えてくれます。質問を変えましょう: なぜ私の左足は右足よりも太いのでしょうか? Siri:「はい、これは私がインターネットで見つけた『なぜ私の左足は右足より太いのか?』に関するコンテンツです。ご覧ください。」 妻:「私は普段は左足に力を入れているのかしら、それともあなたの錯覚かしら?さあ、触らせて!」 さて、本当のAIは誰なのか比較してみましょう。答えは自明です。 開発中の AI 製品を実際の人間と比較するのは明らかに不公平ですが、AI 開発のボトルネックがどこにあるかを示すことができます。 現在、AIは「弱い人工知能(略して「弱いAI」)」と「強い人工知能(略して「強いAI」)」の2つに分けられます。この概念はアメリカの哲学者によって提唱されました。両者の違いは自律的な意識と思考を持っているかどうかにあり、これがAI発展のボトルネックとなっています。 強いAIと弱いAI 強い AI は違います。上記のすべてのタスクを完了できるだけでなく、多次元かつ詳細な思考を独自に実行し、常に質問して答えを探し、自分自身をより完璧にすることができます。このような製品は現実には存在せず、映画の中でしか見ることができない、本物のAIです。 弱いAIがデータベースを参考回答として使用するのに対し、強いAIはデータベースを教師や親として使用し、年長者から知識や思考方法を積極的に吸収し、その反応を模倣し、人間のような意識や思考方法を形成する方法を知っています。 現在最も人気のある AI 技術は、機械学習の一分野である「ディープラーニング」と呼ばれています。人間の脳内のニューロンの分散アーキテクチャを指すため、ディープニューラルネットワークとも呼ばれます。
自動運転を例に挙げてみましょう。車にデータ収集用の機器を取り付けることで、運転中に遭遇するさまざまな環境、路面、ナビゲーション状況に対する反応が正確に記録されます。その後、データ分析に基づいて、一連の運転ロジックが導き出されます。次に自動運転モードを開始すると、車はこのロジックに従って動作し、その運転スタイルはあなたとほぼ同じになります。 このプロセスでは、木とは何か、人とは何か、横断歩道とは何かを機械に教える必要はありません。私たちが幼い頃に、さまざまな色や形の積み木を区別できたのと同じように、すべてが機械自体によって識別され、分類されます。 しかし、それでもディープラーニングは弱い AI としてしか分類できません。それはなぜでしょうか? 例えば、車の運転を習うとき、私たちはインストラクターの指示を受動的に受け入れるだけでなく、積極的に質問したり、自分の考えを述べたりして、インストラクターのフィードバックを通じて出来事を書き留めます。それでもコーチが私を納得させられないと感じたら、他の経験豊富なドライバーに尋ねたり、インターネットで答えを検索したりします。 例えば、雨が降っていて、平坦なアスファルト道路を運転しているときに、突然 50 メートル先に大きな水たまりができ、道路脇で間に合わせの旗を持ち、水たまりを指差して首を振っている人がいたとしたら、あなたはどうしますか?ほとんどの人は、その人が何を言おうとしているのかを判断するために速度を落とし、すぐにそれが深い穴だと推測し、ゆっくりとその周りを回るでしょう。自動運転システムについてはどうでしょうか?おそらく、次のように分析されるでしょう。「この道路は晴れていても雨が降っていても非常に平坦で、道路の陥没穴はまったくありません。なぜ沿道の人々が首を振っているのか、誰が気にするでしょうか。」 そのため、ディープラーニングが人間の脳の学習モデルにどれだけ近づいたとしても、それは依然として自律的な意識を欠いた「疑似学習」であり、知識を統合して他の状況に適用する人間の脳の能力のレベルに到達することは困難です。 さらに、弱い AI には曖昧な思考が欠けています。彼らの世界には、0 と 1、つまり「はい」か「いいえ」しかありません。 非力なAIスマートエアコンに「温度をもう少し上げて」と話しかけると、その場合、2 つのアプローチがあります。1 つは、何度増やすかを尋ねるもので、もう 1 つは、工場出荷時の設定またはトレーニング データに従って操作する方法です。人間や強力な AI なら何をするでしょうか?これら 2 つのオプションに加えて、3 番目のオプションがあります。自分の意志に従って、たとえば 1 度上げたり、2 度上げたりして調整します。 弱い AI 調理マシンにこう言うとき: お医者さんから、今夜は軽めの食事をし、塩辛くしすぎないようにと言われました。弱いAIは混乱しています。炒め物をするときに塩辛くなりすぎないようにするにはどうすればいいでしょうか?塩を数ミリグラム減らすということですか?
2020年12月、ロシアのウラジーミル・プーチン大統領がテクノロジーイベントに出席した際、ロシア貯蓄銀行のバーチャルアシスタントであるアテナが彼に質問した。「人工知能は大統領になれるか?」プーチンの答えは的を射ていた。彼は人工知能には心も魂もなく、思いやりや良心もないのでそれは不可能だと考えていたが、これらの要素は国家指導者にとって非常に重要だ! 思いやりと良心の定義は、それ自体がさまざまな意見が受け入れられるトピックです。誰もが自分の経験と認識に基づいてそれを説明できますが、これは弱い AI には備わっていないものです。モデルと明確なデータによるサポートが必要です。 例えば、かつてシャオミンを助けた友人は、高齢の母親が転倒して救急外来に搬送される必要があると言って、シャオミンにお金を借りるよう頼んだ。シャオミンさんは大変心配しましたが、この友人が他の人に借金をしていると聞いて、あるプラットフォームでローンを申請させることにしました。その結果、承認プロセス中に、友人の年老いた母親が適切な治療を受けられず亡くなりました。シャオミンは罪悪感を強く感じたので、葬儀費用の一部を支払うのを手伝いました。 問題は、シャオミンに思いやりと良心があるかどうかだ。 この質問はあなたにとって難しいものではないはずです。少なくとも大まかな答えは出せるはずです。しかし、弱い AI にとっては難しい質問です。共感の標準値とは何でしょうか?良心を持つことの標準的な価値は何でしょうか?こうした AI が感情を伝えたり、芸術を鑑賞したりするために使われたら大惨事です。 要約と考察 では、映画「アイ、ロボット」のサニーのような強力な AI 製品を開発するにはどうすればよいでしょうか?
人間の脳を模倣することに基づいた新しいアプローチを見つけるべきだと思います。魂と意識は、何百万年にも及ぶ人類の進化の結果です。それらを大量のコードとデータでどのように概説できるのでしょうか? カオスモデルを利用して実験室で原始的なAIシステムを構築する方法を研究することが提案されています。これにより、各AIサンプルは古代の人間のように膨大なデータの海で生き残ることができ、その後、さまざまな自然災害、猛獣、誕生、老化、病気と死などの環境法則をシミュレートし、すべての生物に遺伝的変異の能力、生存意志、生殖の任務を与えます。AIシステムがどのような結果に進化しても、介入を課すことはありません。私たちがすべきことは、このプロセスの計算速度を高速化し、数百万年という進化の時間を可能な限り短縮することです。 つまり、AI サンプルを独自のロジックに従って設計するのではなく、 AI サンプルに独自のロジックを生成させ、そのロジックに従って考え、開発し、進化させる必要があります。そうしたAIサンプルだけが自律的な意識を持つ可能性が高い。論理的思考や価値観が人間と全く異なっていても問題ない。生き残ったAIサンプルを選別し、人間や動物に無害で人間社会に適応するものを現実に適用すればいいのだ。 残酷ではあるが、良い方法だ。 おそらく、「私は誰なのか、どこから来たのか、そしてどこへ行くのか」という哲学的な問いに対する答えが見つかるでしょう。 |
<<: ちょっとした会話の後に心を開いてみませんか?この世代の人工知能はあなたのプライバシーを会話の話題に変えました
>>: 2020 Forrester Wave レポート: Dynatrace が AI を活用した IT 運用 (AIOps) のリーダーに選出
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
AIの波の中で、企業や国を問わず、コンピューティング能力に対する需要は日々高まっています。最近立ち上...
背景近年、NLPの応用分野では大きな進歩がありました。Bert、GPT、GPT-3などの超大規模モデ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
数学の巨匠、テレンス・タオ氏は、論文執筆ツールがついにアップグレードされたと投稿しました。以前は T...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
2021年世界人工知能会議7月8日、「インテリジェントにつながる世界、知恵の都市を築く」をテーマに...
大規模言語モデル (LLM) は常識理解やコード生成などのタスクでは大きな進歩を遂げていますが、数学...
みなさんこんにちは、カソンです。テクノロジー系のブログをよく読む友人なら、 Webpilot [1]...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...