1月下旬に終了したCES 2019で、LGの社長兼最高技術責任者であるIP Park氏が、AIがどのように「自己進化型」製品を促進できるかについて基調講演を行った。 「人工知能と倫理」についての議論は、もともと深刻な話題とはあまり関係がなかったこの消費者向けテクノロジー イベントの前兆となりました。 自動運転からスマートホームまで、人工知能は、議論の頻度と技術革新の両面で、人々がより良い生活を追求するためのあらゆる側面に浸透しています。 マッキンゼーは、2030年までにAIが世界中で約130億ドルの追加経済効果を生み出し、世界のGDP成長の1.2%を占めると予測しています[1]。同時に、世界各国の政府もこの技術が人類社会に及ぼす重大な影響に注目し始めている。カナダの国際シンクタンクが発表した「AIワールドの構築:国家および地域のAI政策レポート」[2]では、世界の主要18カ国が科学技術、規制、倫理、社会統治などの面を網羅したAIに関する的を絞った戦略と政策を発表している。 しかし、人工知能の爆発的な発展により、人工知能が社会全体に与える影響もSF作品から現実のものとなってきました。
SF作品に登場するクールで迫力のあるターミネーターはさておき、単純な自動運転技術も、実際に実用化されると「トロッコパラドックス」に直面することになる。人間の社会生活の複雑さは、仕事において効率性と正確性を追求するだけでなく、選択において公平性と合理性を追求する点にあります。 テクノロジーの継続的な発展により、人工知能が人々の日常生活に真に組み込まれると、これらの倫理的な選択が真に私たちの前に提示され、人工知能の設計者が解決しなければならない問題となるでしょう。 では、人工知能に関する具体的な議論とはどのようなものでしょうか。どのような問題に注意を払う必要があるのでしょうか。過去 1 年間、人々は以下の問題に注目してきました。 人工知能は人間に危害を加えてはならない ロボットが誕生した頃から、人間を助けるために設計されたこれらの機械に対する倫理基準が確立されてきました。 1950 年代、有名な SF 作家アシモフは著書「われはロボット」の中で「ロボット工学三原則」を提唱しました。 法律の第1条には、「ロボットは人間を傷つけたり、不作為により人間に危害を加えたりしてはならない」と規定されている。至高の人間の生命を守ることは、すべての行動の前提条件です。文字通り、これは普遍的に認識され、従われるルールであるはずですが、現実はSF作品ほど単純ではありません。 2018年4月、Googleと国防総省は、機械学習技術と高度なコンピュータービジョン技術を使用してドローンで撮影されたビデオ内の物体を識別し、38のカテゴリのターゲットを自動的に検出して識別し、軍事アナリストの作業負荷を軽減するMavenプロジェクトで協力することに合意しました。さらに、この技術は対象者の動きを追跡するためにも使用できます。 この動きはプロジェクトに関係する多くの従業員の辞職を招き、4,000人近くの従業員がGoogleにプロジェクトを中止するよう求める請願書に署名した。グーグルは6月に声明を発表し、人間に危害を加えることを目的としたいかなる兵器開発や人工知能研究も行わないと強調したが、プロジェクトは中止されなかった。最終的に、Googleは「軍事用の人工知能の研究を拒否した」従業員からの圧力を受け、2019年3月にプロジェクトが終了した後は契約を更新しないことをようやく確認した。 人工知能コミュニティの一般従業員が始めたこの「反戦運動」の勝利は、人工知能技術の応用分野が極めて広いことに疑いの余地がないことを私たちに思い出させます。今日の急速な技術発展の時代には、ヒューマノイドの「ターミネーター」は現れないかもしれませんが、別の形でひっそりとやってくるかもしれません。 しかし、技術開発には倫理的および規制上の制約が必要です。結局のところ、絶え間ない摩擦、衝突、紛争の中で人間社会が正常に前進し続けるのは、こうした最も基本的な規則のおかげです。 おそらく、人工知能の非兵器化は社会の大部分で合意に達しており、Google のプロジェクトも世界中の多くの平和主義者の非難の中で阻止された。 しかし、「積極的に人を傷つける」自動化兵器に加えて、人工知能が私たちの生活のさまざまなシーンに浸透すると、人工知能が「人を傷つけざるを得ない」いくつかのシーンにどう対処するかも重要な問題となっている。 自動運転はその一例です。
2018年10月、MITは「トロッコ問題」における自動運転に関する論文をネイチャー誌に発表した[3]。 研究者らは、自らが開発した「道徳マシン」を使い、200カ国以上から集まった200万人以上のオンライン参加者に対し、緊急事態において自動運転車がどのようにしてさまざまな命を選択するかについて一連の質問をした。 結果は、人間の間で選択の多様性を示しています。異なるグループは非常に異なる好みを持っており、たとえば、あるクラスターは動物を保護する傾向があり、あるクラスターは高齢者を保護する傾向があります。こうした特異性はさまざまな人間のグループに現れる可能性があるが、事前にプログラムされ、独自の特定モードに従って選択する必要がある自動運転車の場合、少数派の好みが増幅されて多数派と衝突するか、少数派の好みが多数派の圧倒的な優位性によって完全に消滅するかのいずれかになる。 研究の総合結果に沿って自動運転のルールが策定されれば、多数派と若者は保護される一方で、少数派と高齢者は犠牲になるだろう。このような規則が完全に施行された場合、高齢者が依然として混雑した道路に現れるかどうかは考えられます。 「一方で、私たちは一般の人々が重要な社会的議論に参加できる簡単な方法を提供したいのです」とメディアラボのメディア芸術科学准教授、イヤド・ラワン氏は語った。 「一方で、自動運転車が倫理的なトレードオフを解決する上で、どのような要素が重要だと人々が考えているかを判断するためのデータを収集したいと考えています。」議論はまだ終わっておらず、継続的な議論を通じて、自動運転の実際の影響に対する理解がさらに深まり、自動運転のルールも策定されつつあります。 人工知能は人間を差別してはならない MITの調査では、人生の選択に加えて、人工知能のアルゴリズムによって人間の好みの違いが増幅される点がより注目に値する。注意しないと、これらの違いはアルゴリズムの開発を通じて偏見へと増幅され、実際に人々の選択に影響を与える可能性があります。 たとえば、Amazon の人工知能従業員システム。この実験的な従業員システムは、以前の従業員の履歴書からの機械学習を使用しており、実際には女性技術者の履歴書に低いスコアが与えられます。数々の論争を経て、Amazon は 2018 年 11 月についにこのシステムをシャットダウンしました。 アマゾンがAI履歴書審査システムを停止した同じ月に、8人の米国議員がアマゾンのCEOに連名書簡を送り、顔認識システムにおける人種差別に抗議した。アマゾンは今回、圧力に抵抗し反撃したが、世界中の平等権擁護者は依然としてそれを受け入れていない。両者の争いはまだ終わっていない。
機械学習は、大規模かつ高速で正確な繰り返し計算を通じて効率の問題を解決し、多くの分野で大きな発展の可能性を秘めています。しかし、効率が高い反面、人間が提供した機械学習のサンプルをよく見ると、エラーを排除したりパターンを探したりする際には、サンプルの大半が当然ながら例として取り上げられることが分かります。これを現実に当てはめると、「差別」と非難されることになります。これは開発者による意図的な動作ではなく、AI自体の問題でもありません。 人類の歴史の発展において、人工知能はこれまで気づかなかった問題を指摘するのに役立ってきたとしか言えません。人工知能はすべての人に役立つべきだと私たちは固く信じていますが、過去の偏見を克服する方法を考える必要があります。これは人間と人工知能の共通の課題です。 人工知能は人間を「操作」すべきではない 既存のデータに対する好みの違いに加えて、人々は人工知能におけるデータや推奨事項についても多くの懸念を抱いています。 人工知能が強力なデータ処理能力を発揮し続ける中、多くの評論家は、人工知能が集中化されており、その極めて強力なデータ収集能力により、大きな情報の非対称性が社会的パニックを引き起こしていると考えています。 2018年にFacebookで発生したプライバシー漏洩事件により、データセキュリティが最前線に浮上しました。人工知能やアルゴリズムに対する不信感もかつてないレベルにまで高まっている。 同時に、アルゴリズム推奨商品も見直されています。 一方で、アルゴリズムによる推奨の背後にある強力なデータ収集と分析により、人々は人工知能の前で裸にされ、プライバシーがないように感じます。他方、人々の好みを単に満たすアルゴリズムによる推奨によって生み出される「知識の繭」により、人工知能が人間の「自意識」を操作するほど強力であるのではないかと人々は恐れます。
2018年12月、グーグルの動画ソーシャルネットワーキングサイト「YouTube」は、過激派やフェイクニュースなどのコンテンツを顧客に押し付けていると再び非難された。 YouTubeはすぐに謝罪し、動画を削除したが、アルゴリズムによる推奨システムをどのように修正するかは、関係者間で議論が続いている。 人間の道徳的価値観は、社会実践活動の長い歴史の中で自然に形成されます。しかし、こうした社会実践を経験していないコンピュータにとって、道徳的制約は自然に形成されるものではありません。 しかし明らかに、アルゴリズムには価値が必要であるという考えが人工知能コミュニティにおける主流の合意となっている。 アルゴリズムに人間の価値観と一致する制約を課すには、アルゴリズムを公開することは最初のステップに過ぎません。社会的な議論を通じてルールを確立し、想像力と創造力を通じて人間の倫理的価値観とより一致するアルゴリズムを設計する方法は、人工知能技術の発展において依然として継続的な探求が必要です。 人工知能は人間に完全に取って代わるべきではない アルゴリズムが消費者と人工知能の間に亀裂を生み出したのであれば、生産面における人工知能の人間に対する圧倒的な優位性はさらなるパニックを引き起こした。ロボットアームからロボット、自動化された生産からAIによるニュース執筆まで、人間の労働に代わるAI製品が次々と登場しています。 2016年12月、ホワイトハウスは「人工知能、自動化、経済に関する報告書」[4]を発表し、人工知能の生産が労働市場に混乱をもたらしていると指摘した。当時、これは少し「心配しすぎ」のように思われたが、その後の2年間で、人々は人工知能が労働市場にもたらした圧力を身をもって感じるようになった。
2019年初頭、ブルッキングス研究所の報告書は、農業や製造業だけでなくサービス業でも約3,600万人のアメリカ人が人工知能に置き換えられる危険にさらされていると指摘しました[5]。しかし、一部の経済学者は、自動化された生産やサービスは新たな雇用を生み出す可能性がある一方で、高い創造性が求められる一部の雇用は代替できないと指摘している。 実際、あらゆる技術の飛躍と変化は、それに応じた社会的苦痛をもたらしますが、社会は常にその苦痛の中で変革を達成することができます。あるいは、教育を通じて個人の資質を向上させ、より挑戦的で価値のある仕事に従事したり、人工知能を通じて新しい仕事を創出し、労働力の変革を実現したり、起業とイノベーションの波に乗って、社会イノベーションにさらなる活力を注入したりすることもできます。 私たちは、これらの創造的な人々が人工知能と「戦う」過程で人工知能と協力し、犠牲を払って社会の継続的な進歩を達成しているのを見ています。 警戒は怠らないが、テクノロジーを善のために使うという本来の意図を決して忘れない テクノロジーによってもたらされた問題や社会的な議論に直面して、知事や実業家は独自の方法で対応してきました。 人工知能に関する国家安全保障委員会は、米国国防総省の2019年度予算に初めて登場した。委員会は、AIや機械学習に関連する技術革新を具体的に評価し、その使用が法的枠組みの範囲内であり、倫理的価値観に沿っていることを確認するために、GoogleやMicrosoftなどのAI大手から専門家を雇用した。 偶然にも、2018年12月、欧州連合(EU)のさまざまな分野の専門家52人が、倫理的な観点から人工知能技術を規制することを目指して「人工知能の開発と利用に関する倫理ガイドライン」[6]を発行した。彼らは、人工知能はまず基本的人権、倫理規則、社会的価値を尊重する、つまり「倫理的目標」を追求するべきであり、技術的創造性を維持しながら、人工知能の信頼性を振り返り、強化する必要があると考えています。 英国は2018年の人工知能開発計画の中で、捉えどころのないビッグデータを管理するためにデータ倫理センターも設立した。
政府に加え、大手企業も人工知能の合理的な発展を確保するために、人工知能に関する独自の倫理的イニシアチブを積極的に発行しています。 2018年のモバイル・ワールド・コングレスにおいて、IBMワトソンの最高技術責任者であるロブ・ハイ氏は、IBMの人工知能開発の3つの原則として、信頼、尊重、プライバシー保護を提案しました。 同時に、マイクロソフトは政府に顔認識技術に関する規制を策定するよう提唱し、公平性、透明性、責任、差別禁止、インフォームドコンセント、法的管理という6つの原則を提唱した。データ漏洩の渦に深く巻き込まれているFacebookも、2019年初頭に行動を起こした。同社は750万ドルを投資し、ミュンヘン工科大学と協力して人工知能倫理研究所を設立し、人工知能研究にさらなる倫理的思考を導入することを目指した。 テンセントの馬化騰会長が2018年世界人工知能大会で言及した人工知能の「4つの缶」概念も、人工知能に関するさまざまな問題に全面的に答えた。 「Four Cans」は「ARCC」(利用可能、信頼性、理解可能性、制御可能性、アークと発音)と翻訳され、将来の人工知能は「認識可能」、「制御可能」、「利用可能」、「信頼できる」ものでなければならないことを意味します。 テンセントは、「4つの5」のような倫理的枠組みから始めることで、AI開発者とその製品が一般の人々の信頼を得られるよう支援したいと考えている。これこそまさに、世界中の人工知能開発者が現在追求しているものです。 テンセントの郭開天上級副社長は第2回テクノロジー・フォー・グッド・フォーラムで次のように述べた。「デジタル社会の文脈において、実践者は警戒を怠らず、自己を省みる必要がある。そしてさらに重要なのは、テクノロジーが善をもたらすと信じ、人間にはこの技術革命を活用し、制御する能力と知恵があると信じることだ。」 データの収集やトレーニングから機械学習まで、人工知能は実際には人間社会に常に存在してきた問題を拡大しただけであり、新しい時代の文脈でこれらの問題について考え、解決するために想像力と創造力を使うことを思い出させます。 テクノロジーは人類のより良い生活の追求から生まれたものであり、人間から始まり、人間によって制御されるべきものです。立法上の制限であれ、価値原則であれ、最終的には人間社会の倫理的価値の再探求です。 人工知能の波はまだまだ続いています。インターネット時代の先駆者たちは、この波の中で足場を固め、考え、善行をするという信念を持ち、着実に前進し続けなければなりません。
|
<<: オープンAI音声アシスタントMycroftでプライバシーを確保
>>: AIIAがAIチップベンチマークの第一ラウンドの結果を発表
車両の電動化が徐々に進むにつれ、電子制御ユニット(ECU)が車全体を制御するようになりました。アンチ...
この記事では、畳み込みニューラル ネットワーク (CNN) の基本原理を、関連する数学理論を省き、最...
9月8日、MojoはModular AIが開発したAI専用に設計されたプログラミング言語であり、 ...
海洋ゴミは世界的な問題となっている。たとえすべてのデータを収集できたとしても、海洋問題の専門家である...
入力がキーボードに別れを告げ、音声、表現、動作が入力方法になると、どのような魔法のような体験になるの...
チップ不足と疫病の影響により、今年初めから自動運転産業の発展は減速を余儀なくされたが、数か月の回復を...
サム・アルトマンのブログ記事全文は次のとおりです。 OpenAI での私の仕事は、ほとんどの人が認識...
[[421986]]過去数年間でインターネットビデオは爆発的な成長を遂げており、ビデオ伝送インフラ...
[51CTO.com クイック翻訳] 増え続けるプログラミング言語ライブラリやツールの中から、機械学...
LLM について議論するときは、必ず「人間のフィードバックによる強化学習 (RLHF)」と呼ばれるプ...
この記事では、機械学習に最適なソフトウェアについて説明します。これらのソフトウェアは、ML コードを...
道路交通自動運転技術の開発と応用の促進に関する運輸省の指導意見:道路交通の自動運転技術の開発と応用を...
過去数年間、研究者たちは人工知能システムの安全性にますます関心を寄せてきました。 AI 機能のサブセ...
近年、人工知能技術は飛躍的な進歩を遂げており、各国は人工知能技術の戦略的意義を認識し、国家戦略レベル...