近年、人工知能の倫理的問題についての議論が盛んに行われている。最近終了した中国コンピュータカンファレンス(CNCC)のサブフォーラムでも、「人工知能開発の倫理的限界」というテーマで議論が始まった。
一時は、さまざまな発言が横行した。 「ロボットが人間の仕事を奪う」「コンピュータシステムは人間と同じように偏見を持っている」など、誰もがさまざまな懸念を抱いています。 機械学習や人工知能が他の技術よりも危険な理由について考えてみませんか? 実際、人工知能の倫理に関する現在の公開討論は非常に重要かつ時宜を得たものであり、議論を継続する必要がある。しかし、熱心な市民である小新の唯一の希望は、技術倫理の問題を議論する際に、「人工知能」という名称を気軽に使用することを避けるべきだということだ。なぜなら、時には特定の問題が人工知能とまったく関係がないこともあるからだ。 AI倫理に関する現在の議論は要点を外している 最近、シャオシンは世界経済フォーラムの「人工知能の9つの倫理的問題」という記事を読みました。この記事をもとに、Xiaoxinは以下の実験を実施します。 (ここで言っておきますが、Xiaoxin はこのフォーラムを批判したり風刺したりするつもりはありません。それどころか、彼女はこのフォーラムをとても気に入っています。) 一般の人々が人工知能の倫理的問題について議論する場合、関係する問題のほとんどは人工知能に特有のものではありません。実はこの問題は広い意味ではあらゆる技術に存在するので、驚くことではありません。 この記事で、サブ見出しを選択し、「人工知能」、「ロボット」、「機械」、「インテリジェント システム」、「人工」などの単語をすべて「テクノロジー」という単語に置き換えて、何が見つかるかを調べてください。 これらの「9つの倫理的問題」のうち、AIに特有のものはいくつありますか? 1. 将来、人間が仕事を見つけられなくなったらどうなるでしょうか? 2. テクノロジーによって生み出された富はどのように分配されるべきでしょうか? 3. テクノロジーは人間の行動やコミュニケーションにどのような影響を与えるでしょうか? 4. テクノロジーのエラー率を下げるにはどうすればよいでしょうか? 5. テクノロジーにおける偏見を排除するにはどうすればよいでしょうか? 6. テクノロジーが不適切な目的で使用されるのを防ぐにはどうすればよいでしょうか? 7. テクノロジーが意図しない結果をもたらすのを防ぐにはどうすればよいでしょうか? 8. 人間はどのようにして複雑なテクノロジーを習得できるのでしょうか? 9. テクノロジーの「人権」問題をどのように定義するか? 当然ながら、質問 1 から 8 は広い意味でのテクノロジーのみをカバーしており、当然ながら一般的なソフトウェアも含まれます。この記事で「人工知能」という用語が使われているのは、実は読者の興味を喚起するためです。また、この用語は、地質学者がよく使用する教材「ペット ロック」を小新に思い出させます。ペット ロックがクラスに興味を持たせるだけであれば、もちろん許容されます。しかし、地質学の授業が「ペット岩心理学」となると全く違ったものになります(問9)。
物体に顔を描き、すぐに話しかけてみましょう。実際、これは人間の「機能不全」の現れです。顔があるだけでは脳があるわけではないからです。 人間がさらに不当な扱いを受けるようにしたい、効果のない解決策を絶えず考え出したい、労働市場の秩序を乱したい、人間のコミュニケーション方法を変えたい、悪人の手に終わりのない問題を引き渡したい、人間自身が制御したり排除したりできない複雑なシステムを作りたいのであれば、これらのことを実現するために機械学習や人工知能は実際には必要ではありません(ただし、これはしないでください)。さらに、上記の行動が人間の世界に与える影響を探る場合、「ビッグデータ」や「ニューラルネットワーク」などの高度な概念に頼る必要はありません。 技術的特異点?(この見解はまだ検証されていないため、ネビュラ賞を授与するのは時期尚早です) では、機械学習や人工知能に特有の特徴とは何でしょうか? もちろんあります! 「シンギュラリティ」理論でしょうか? あまり急がず、「シンギュラリティ」にネビュラ賞を急いで与えないでください。現在、機械学習や人工知能と呼ばれているものは、実際には他にも多くの重要な特性を持っており、これらの特性は適時に明確にされる必要があります。
写真に示されているように、これは実際には「ペット ロック」の別の例です。このシミュレーションは確かにより現実的ですが、それでも、人間の顔が描かれた無生物にすぎません。 人工知能 vs ロボット 人工知能の何がそんなに良いのでしょうか? 簡単な答えは、AI は言葉で表現できないタスクを自動的に処理できるということです。 言い換えれば、人間はもはや問題の解決策を自分で見つける必要はなく、データ内のパターンを使用するだけでよいのです。 これがどれほど強力かお分かりですか? つまり、人間がさまざまな指示を書く必要がなくなり、コンピューターが自動的にタスクを完了できるようになります。他に何が欲しいですか? 人工知能に「人間性」を持たせたいですか? 人間に完全に取って代わることですか? 技術的な特異点ですか? あまり考えすぎないでください。人工知能は実際にはこれらとは何の関係もありません。現在、人工知能は「完全武装」のヒューマノイドロボットとしてパッケージ化されており、大衆の無知を完全に利用し、大衆の注意をそらし、本当の危険を無視させています。 ロボットは単なる別の種類の「ペット ロック」です。たとえば、掃除機に大きな目のステッカーを 2 つ貼ってみるのもいいでしょう (ぜひこれをやってみたいですよね)。効果は実際には同じです。 したがって、不必要なことを心配し続けると、本当に心配する価値のあることを無視することになります。技術的な詩人に騙されないでください。 ニューラルネットワークは人間の脳と同じではありません。 現在のいわゆる人工知能は、人間に代わる人格を持ったヒューマノイド実体を開発することを目的としているわけではありません (実際、このタイプのロボットを説明するには、より適切な用語があります。それは、HLI ヒューマノイド知能です)。実際には、AI は単なるプログラミング ツールのセットですが、明示的な指示ではなく例 (データ) を使用して異なる方法で記述されます。 「AIは明示的な指示ではなく、例(データ)を使用してプログラムされるツールです。」 人工知能の発展の見通しを知りたいですか?人工知能の潜在的なリスクは何ですか?前の引用をよく考えてみると、実はこの2つの疑問がそこに反映されています。 焦点の変化 10,000 ステップで構成されるタスクを自動化する必要があるとします。従来のプログラミング方法を使用する場合、人間は各命令を記述するために頭を悩ませなければなりません。 従来のプログラミングでは、ソリューションの各ステップを人間が明示的に記述する必要があります。 このプロセスは、人間が素手を使って 10,000 個のレゴブロックを組み立てる作業に例えることができます。開発者自身は忍耐力があまりないため、次回使用するときに再度組み立てなくても済むように、いくつかの部品をまとめてパッケージ化します。 したがって、ユーザーはこれらの 10,000 個のビルディング ブロックを個別に処理する必要はなく、作成されたインストール パッケージをインターネットからダウンロードできます。この時点で、人々は次のステップ、つまりそれぞれが 200 個の小さなブロックで構成される 50 個のコンポーネントの組み立てを継続することにさらに集中できるようになります。他の人が事前に組み立てたレゴの部品を完全に信頼していれば、各ブロックの詳細をわざわざ確認する必要はありません。 したがって、人々はレンガやタイルを一つ一つ慎重に考える必要はなく、屋根と壁を組み立てるだけで済みます。それに、そんな些細なことをする暇なんて、誰にだってあるでしょう?(おそらく、組み立てが完了したら、10,000 個のビルディング ブロックで構築されたこの傑作をパッケージ化して、100,000 個のビルディング ブロックを構築するという偉業を達成したいときには、いつでもインストール パッケージをコピーして、大幅に時間を節約できるでしょう。間違いなく、これらすべては GitHub プラットフォームのおかげです)
しかし、再び疑問が生じます。たとえ人間が各ステップを個人的に完了する必要がなくなったとしても、これら 10,000 ステップのすべての指示が人間によって苦労して書かれたものであることを知っておく必要があります...これが機械学習と人工知能の違いです。 機械学習は、人間を集中状態から無関心状態へと導きます。 機械学習や人工知能工学の分野では対処すべきさまざまな問題がありますが、主なことはさまざまなツールを統合して対処することです。プロジェクトでは 10,000 行のコードを記述する必要がある場合がありますが、そのコードのほとんどは、これらの扱いにくいツールを騙して指示を受け入れさせるためのものだけです。ツールが改良されるにつれて、最終的には機械学習や人工知能における実際の指示は次の 2 つだけになります。 1. 目標を最適化する… 2. …データセットに基づきます。 それだけです。今日では、人間が何千行ものコードを書く必要はなく、たった 2 つのステートメントでタスクを自動的に完了できます。これはいいように聞こえますが、実際には危険が伴います。 人工知能は誰の仕事を置き換えるのでしょうか? 現実の世界では、非常に些細な作業であるため、人間が作業をしなくても機械で完了できるものもあります。その結果、人間の作業効率が大幅に向上します。人間自身はやり方を知りませんが、機械の助けを借りて効率的に作業を完了することができます。だからこそ、SF映画のシーンに惑わされない人たちは、機械学習や人工知能をますます推進するようになるだろう。 こうすることで、人間は何万ものステップの解決策を書くことにも悩む必要がなくなります。機械学習と人工知能は、開発者が提供する例から解決策を見つけ出すことで、10,000 行のコード (またはそれに類似するもの) を自動的に生成できるようになります。 基本的な違いは、集中の度合いです。 機械学習や人工知能によって誰が置き換えられるかについて考えたことがないのであれば、勇気を出して次のことに備えたほうがよいでしょう。 開発者は他の人の作業を自動化/高速化します。 機械学習と人工知能は開発者の作業を自動化/加速します。 つまり、「まずこれ、それからこれ、それからこれ、そして…」といった指示を書く代わりに、「このデータに基づいて、最高のスコアを取得してください」と言えばよいのです。あるいは、もっと口語的に言えば、「これが私の気に入ったものです。タイプライターの猿どもがこれを手に入れたら、私に知らせてください」となります。
(心配しないでください。アルゴリズムが処理できるようになる前に、特定のデータセットを統合するための作業がまだたくさんあるので、ソフトウェア エンジニアは職を失うことを心配する必要はありません。変わったのは彼らの働き方だけです。以前は、彼らは命令を通じてコンピューターに何をすべきかを指示していましたが、今はデータを入力する必要があります。) 避けられない人間の過失 ここで、機械学習と人工知能に特有の最も差し迫った問題、つまり避けられない人間の不注意について取り上げる価値があります。 人間の生死に関わる場合、AIの過失は大きなリスクとなります。その時点で、機械学習と人工知能は「過失増幅装置」となるでしょう。 この時点で、意思決定者の選択は重要ですが、このプロジェクトを管理する人々は、5,000 の指示を書いたのと同じくらい注意深く細心の注意を払って、この 2 行を本当に整理するでしょうか。本当に? 他に考慮されていないことは何ですか? インスタンスの選択 機械学習と人工知能は、意図を表現するために例を使用するため、データセットをシステムに取り込む必要があります。しかし、人々がこのデータを事前に検証して処理せず、どれが関連性があり、どれが偏っていて、どれが質の高い例であるかを区別しなければ、結果は悲惨なものになるでしょう。 人工知能における偏見: 不適切な事例、検証されていない事例。
ターゲットの選択 さらに、人々は、良いように聞こえるが実際にはひどい目標をランダムに選択する可能性があります。たとえば、リーダーは開発者に「できるだけ多くのスパムをブロックするのを手伝ってください」と言い、感度が高く信頼性の高いフィルターを開発することを期待します。ただし、同じ指示を AI アルゴリズムに与えれば、リーダーは最近新しいメールが受信されていない理由をすぐに突き止めることができるかもしれません。(与えられた目標によれば、すべてのメールをスパムとしてマークすると最高のスコアを獲得できることが判明しました。) 目標を立てることはどんな愚か者でもできる。しかし残念なことに、学習システムはこの目標を達成することに固執しています。 「心」や「数学」という言葉は非常に曖昧でわかりにくいため、人類に大きなリスクをもたらす可能性があります。なぜなら、この曖昧さのせいで、人々は目標や状況を選択する際に不注意になり、性急になってしまう可能性があると Xiaoxin は考えているからです。結局、それをコントロールできるのは人間の心だけです。いわゆる数学はサンドイッチになっています。人間の主観的な意識は2枚のパンであり、真に客観的な数学は真ん中の薄いバター層にすぎません。 数学はサンドイッチのようなもので、主観の間に少しの客観性が挟まれています。 人工知能などのツールが進歩するにつれて、参入障壁は徐々に低くなっています。しかし、敷居が低くなったとしても、人間は必ず間違いを犯します。技術的な改善は確かに小規模な民間プロジェクトには良いことですが、AI プロジェクトの実装が他の人に影響を与える場合、プロジェクト マネージャーはプロジェクトの管理にさらに多くの時間を費やす必要があります。現時点では、優れたリーダーが率先して一連の問題に対して賢明な決断を下さなければなりません。たとえば、私たちは本当にリスクや課題に立ち向かう準備ができているでしょうか?
「支点を与えれば世界を動かすことができる。」 - アルキメデス テクノロジー - 大きなてこ テクノロジーは世界をより良い場所にし、人間の視野を広げ、人間の寿命を延ばし、人口爆発の時代においても、人間が十分な食料と衣服を確保できるようにします。 しかし、テクノロジーは人類にパニック、混乱、混沌をもたらす可能性もあります。テクノロジーの影響が大きいほど、その破壊力も大きくなります。テクノロジーは人間の可能性を大きく高めることができる手段です。 しかし、人類の利益のためにテクノロジーを使用するときは、注意しなければならないことを忘れないでください。特定のテクノロジーを楽しむと、周囲の人々に影響を与えやすいからです。 テクノロジー(人工知能を含む)を使用する場合、それを独立した個人としてではなく、人間を支援するツールとして考えるのが最適です。テクノロジーがもたらす利便性を享受する際には、決して他人に影響を与えないでください。 テクノロジーがもたらす利便性を享受すると、他の人に影響を与えるのは簡単です。 AI 倫理を取り巻く問題の多くは AI に特有のものではないが、AI が傷口に塩を塗り込むこともある。したがって、これらの問題に関する議論は依然として白熱しています。 人間の過失は無限に拡大するだろう 誰かが私に「人工知能が怖いですか?」と尋ねたら、私が実際に聞き取っているのは「人間の過失が怖いですか?」です。私にとって、それが問題の根源です。なぜなら、私はSFのロボットを信じていないし、私のペットの石に話しかけたりしないからです。 さようなら!人工知能の倫理! こんにちは!人間の過失です! この記事の冒頭にある 9 つの小見出しに戻って、それらの見出しにあるシーンの範囲と速度が継続的に拡大していくことを想像してみてください。そして、そのスケールに人間の「過失増幅器」を加えると、すぐに人間の過失の結果は無限に拡大されるでしょう。 人間が人工知能に対して恐れるべきなのはロボットではなく、人間自身である。 諺にあるように、大いなる力には大いなる責任が伴います。しかし、今日の人工知能とビッグデータの時代において、人間は本当に課題に立ち向かい、リーダーシップの責任を負う準備ができているのでしょうか? 人間自身もテクノロジーによって裏目に出ることを心配していることは間違いありません。 Xiaoxin に人工知能が怖いかどうか聞いてみましょう。 もちろん違います! 小欣さんは人工知能が大好きで、楽観主義者として人工知能が導く未来に期待に満ちています。 Xiaoxin は、人工知能の時代には、誰もが責任、コミットメント、リーダーシップの価値を重視するようになると信じています。その時、人類は安全で効率的なシステムを構築できるようになり、全人類に技術の進歩とより良い生活をもたらすでしょう。 このため、Xiaoxin(および志を同じくする人々)は、人工知能、インターネットなどに関するさまざまな技術的知識やアドバイスを皆と共有するためにたゆまぬ努力を続けてきました。 人間が低い枝から果実を摘み取ると(つまり、簡単な問題を解決したら)、より難しい問題を解決するために人工知能を使用する必要があるでしょう。 願わくば、AI を適切に使用することで、人類は資源を節約し、銀河を旅して山や海を越えて愛を広め、無知や病気が存在しなくなるでしょう。 テクノロジーは素晴らしいものになり得ますが、それは私たち人間にかかっています。 Xiaoxin は、誰もがテクノロジーの美しさと温かさの証人であり創造者でもあると常に信じています。 人間は人工知能と協力し、自然とテクノロジーが共存する美しい未来が私たちを呼んでいます! |
>>: ディープラーニングは、データが不足している場合、無力なのでしょうか?ここにいくつかの良いアイデアがあります!
2018 年は人工知能と機械学習が急速に発展する年となるでしょう。一部の専門家は、Python は...
[[256388]]この試合はイギリス・ロンドンにあるDeepMind本社からライブ配信された。 G...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
[[321813]]この記事の内容の一部はブログリンク[1]からのものであり、私が読んだいくつかの論...
先週末、大手人工知能企業OpenAIは、ChatGPTの使用ポリシーから軍事利用を禁止する条項をひっ...
先週のバーチャルクロスワードパズル「アメリカンクロスワードパズルトーナメント」には1,000人を超え...
会話型 AI ベンダーの Gnani は、会話型 AI ボットが今後 2 ~ 3 年で劇的に改善され...
今後20年間で、人工知能やロボット、ドローン、自動運転車などの関連技術により、中国での雇用は約12%...
「Dlib は、高度なソフトウェアを作成するための機械学習アルゴリズムとツールの最新の C++ ツー...
マイクロソフトリサーチアジアは、「中国の大学における人工知能人材の国際トレーニングプログラム」に関す...
ニューヨーク大学の心理学教授であるゲイリー・マーカス氏は、かつてウーバーの人工知能研究所の所長を務め...