2019年に解決すべき11のAI倫理的ジレンマ

2019年に解決すべき11のAI倫理的ジレンマ

ビッグデータダイジェスト制作

編集者: Luan Hongye、Aileen

今こそAIの倫理について議論すべき時です。機械学習は新しい技術開発ではありませんが、これは人工知能の発展において重要な時期です。以下に挙げる 11 の問題を含め、対処すべき倫理的問題は数多くあります。

AIを非倫理的な目的で使用する

1. 経済格差と労働問題

テクノロジーが進歩するとき、私たちがまず注目しなければならないのは雇用の安定です。最初の産業革命と同様に、労働の全面的な自動化は労働者を恐怖に陥れました。

米国政府が初めて大学教育を推進したのは第一次産業革命の頃でした。当時のアメリカ人にとって、問題は大学の費用ではなく、学位を取得するために仕事を中断することによる機会費用だった。労働者に学習を強制するのは野蛮な行為だと言えるかもしれないが、人工知能(第四次産業革命)によって促進される自動化の次の段階もまた、労働者に大学の学位取得を促している。

政府が、自動化によって削減される労働者を補うために、普遍的な所得(全員に基本賃金を与える)を提供しない場合。学生ローン危機は、失業した労働者がさらに教育を受ける意欲をそがれさせ、貧困と所得格差の循環につながる可能性もある。

2. 人間の行動への影響

気づいているかどうかに関わらず、人々は日常のタスクを完了するために機械とやり取りすることがますます増えており、透明性と行動への影響の問題が生じています。たとえば、Google Duplex は、本物の人間のように話し、電話でレストランの予約ができる AI システムです。システムは実際の人間に匹敵するほど迅速に応答できます。

人間の注意力と忍耐力には限界がありますが、機械の感情的なエネルギーには限界がありません。もちろん、機械の限界は技術的なものですが。これは顧客サービスなどの特定の分野では有益かもしれませんが、この無制限の機能はロボットに対する感情的な依存を生み出す可能性があります。これは、機械に恋する男の物語を描いた映画「her」に反映された問題です。

[[269105]]

実際の人間を模倣するこれらのロボットに加えて、多くのアプリはアルゴリズムを使用してユーザーを中毒にするように設計されています。たとえば、Tinder は、類似したマッチングを推奨せず、ユーザーをアプリ内に長く留めておくことで、AI 駆動型アプリにユーザーをより長く縛り付けるように設計されています。

3. 雇用と犯罪における偏見による差別

AI倫理において最も緊急かつ広く議論されている問題の1つは、雇用や犯罪などの分野における予測分析システムにおける偏見の問題です。アマゾンはかつて、AI駆動型アルゴリズムを使用して過去のデータを活用し、優秀な求職者を選別した際に採用偏見事件を起こし有名になったことがある。以前の候補者選択では性別による偏りがあったため、アルゴリズムでも男性を選択する傾向があります。

ニューヨーク市警察は3月、警察のデータを精査して犯罪パターンを発見し、類似の犯罪を関連付けるアルゴリズム機械学習ソフトウェア「Patternizr」を開発したと明らかにした。 2016年から使用されているこのソフトウェアは、強姦や殺人事件では使用されておらず、パターンを探す際に性別や人種などの要素を除外している。

これは、人種的偏見に基づいて犯罪や違法行為を予測した以前のアルゴリズムからの前進ではあるが、過去のデータセットからあらゆる種類の差別を積極的に排除することは標準的な方法ではない。つまり、この種の訓練された差別は、良くても侮辱や不便であり、最悪の場合、個人の自由の侵害や組織的抑圧のきっかけとなるのです。

4. 誤報とフェイクニュース

[[269106]]

AI の倫理に関するもう 1 つの問題は、改ざんです。改ざんとは、多くの場合悪意を持って、元のメディアや音声から AI を使用して画像、ビデオ、音声を操作し、他のものの本来の意味を変更することです。ディープフェイクには、顔の入れ替え、声の模倣、顔の再現、リップシンクなどが含まれます。古い写真やビデオ編集技術とは異なり、ディープフェイク技術の開発の目的は、技術的なスキルを持たない人でも簡単に使用できるようにすることです。

元NATO事務総長のニーナ・シック氏などの専門家によると、ディープフェイクによる画像や動画の操作は、例えばドナルド・トランプ氏が核戦争を宣言するリップシンク動画など、世界秩序に壊滅的な影響を及ぼす可能性があり、その結果、ディープフェイク技術はRedditなどのサイトで非常に厳しい検閲とブロックの対象となっている。

前回の米国大統領選挙の際、ロシアは同様の手法を使ってフェイクニュースを使ったハッキン​​グ攻撃を実行した。こうした情報戦争は日常的なものになりつつあり、事実を変えるだけでなく、特定の意見や態度を強制的に変えるためにも存在しています。このアプローチは英国のEU離脱運動でも使用され、高まる政治的緊張と混沌とした世界情勢に拍車をかけました。

人工知能を利用して消費者のプライバシーを侵害する

5. 消費者のプライバシーとセキュリティ

政府は消費者のプライバシーを保護するために多くの規制を制定していますが(EUデータプライバシー法GDPRなど)、潜在的な脅威は依然として大きいです。

データ収集: 携帯電話から Bluetooth 対応の電球まで、ほとんどの消費者向けデバイスは、より優れた、よりパーソナライズされたサービスを提供するために AI を使用して個人データを収集します。この種のパーソナライゼーションは、ユーザーが同意し、データ収集が透明である場合に優れた機能となります。合意や透明性がなければ、この機能はユーザーに悪い体験を与えることになります。

識別と追跡: 電話追跡アプリは、タクシーに iPhone を置き忘れたり、ソファのクッションの間に鍵を置き忘れたりしたときに便利です。しかし、家庭内暴力の被害者が匿名を希望する場合など、個人情報を追跡することが安全でない場合もあります。

音声および顔認識: 前の機能と同様に、音声および顔認識は、日常的に使用する消費者向けデバイスに搭載されていると便利な機能です。たとえば、iPhone では、ユーザーはパスワードを入力する代わりに顔認識を使用して携帯電話のロックを解除できます。

6. グローバルセキュリティとインテリジェンス

国際的な誤報(フェイクニュース報道など)のリスクと同様に、この点における AI の倫理的リスクは非常に大きいです。人間の兵士を AI ロボットに置き換えたり、自動化された兵器を開発したりすれば、政府の防衛軍による危害のリスクをある程度軽減できるかもしれないが、AI がもたらす倫理的なジレンマは核爆弾がもたらすものと匹敵する。

国際指導者らが核兵器実験における人工知能の役割について言及することはほとんどないが、マイクロソフトのような企業は国防総省に高度な自動認識システムを販売する意向をひそかに発表している。

AIを活用して消費者の主体性を減らす

7. シンギュラリティ、あるいはロボットの支配者

宇宙家族ジェットソンの悪夢のようなストーリーラインのように、ロボット支配者の概念は、AIを取り巻く最も明白な倫理的ジレンマとして消費者の心に浮かび上がっています。オックスフォード大学の第一人者であるニック・ボストロム氏は、将来のAIシステムが人間の価値観と矛盾する価値観を持つようになると、悪意のあるロボット支配者のビジョンが現実になる可能性があると述べた。自律性のない人間は誰でしょうか?自律性を与えられたロボットは誰でしょうか?そして最後に、同じ自由と知性を与えられたとき、両者をどのように定義するのでしょうか?

グーグルの未来学者でチーフエンジニアのレイ・カーツワイル氏は、シンギュラリティは私たちが考えているよりも近いと語る。カーツワイル氏は、2045年までに人間の知能と人工知能が融合し、私たちはさらに賢くなるだろうと予測している。それは恐れるべき未来ではなく、期待すべき未来だ。

8. AIの人間化

[[269107]]

AI システム (またはロボット) には権利があるのでしょうか? カーツワイルが正しいとすれば、AI を人道的に扱うということは、人間を人道的に扱うということに他ならないかもしれません。現在、Sophia (Hanson Robotics 社が開発したヒューマノイド ロボット) など、一部の AI システムには市民権さえあります。

人工知能と予測不可能な二次的事象

9. AIが犯すミス

人工知能が存在するなら、人工的な愚かさも存在するだろう。現在、AI システムは特定のドメインのパターンに基づいてトレーニングされており、すべての可能性をカバーできないため、新しいシナリオが提示されると簡単に混乱する可能性があります。これは、AI システムには人間のように類似性を認識する能力がまだないためです。たとえば、パターン認識では、AI システムがトレーニング セットのデータとは異なるシナリオに遭遇した場合、コンテキストに基づいて判断を下すことはありません。

AI システムが簡単に騙される可能性があるということは、機械学習における敵対的攻撃などの悪意のある影響に対しても脆弱であることを意味します。たとえば、アルゴリズムは影響力のあるアカウントからフェイクニュースを読み取り、ジャーナリストのように公開前にソースやアイデアを確認するのではなく、最適化されたコンテンツ要素に基づいてそれを宣伝することができます。

10. AI規制

テクノロジー業界は一般的に、規制の欠如で物議を醸している。その理由の1つは、業界の変化が急速であるため、どこから施行を始めるべきかを判断するのが難しいこと、もう1つは、テクノロジー文化が西洋世界と同じ夢、つまりいかなる犠牲を払ってでも革新を追求することにある。

グーグルのように自主規制の試みはこれまでもあった。グーグルは社内倫理委員会を設置したものの、気候変動を否定し、移民反対の感情を持つメンバーを含む物議を醸すメンバーがいたため、すぐに解散した。マイクロソフトも同様に、政府に対し、特に顔認識ソフトウェアなどのAIシステムを規制するよう口頭で促しているが、競合他社は同社と立法府の関係が近すぎると指摘している。

同時に、AI システムはほとんど規制なしに開発され、導入されています。

11. 倫理的な AI が不可能なら…

私たちの最大限の努力にもかかわらず、AI が道徳的になることは決してないかもしれません。 AI システムを倫理的にトレーニングするには、次のことが必要です。

  • AIが道徳的に行動する動機を持っていると仮定する
  • 普遍的な道徳ルールの出現を期待する
  • AI を道徳的に訓練する人々自身も道徳的であると私は信じています。

スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクはいずれも、超知能は慎重に扱われるべきだと述べた。 AIは倫理的になれるのか?意見は様々だが、AI倫理の時代が来ていることは明らかであり、私たちが行動を起こさなければ大きな間違いとなるだろう…

関連記事: https://blog.remesh.ai/top-11-ai-ethics-dilemmas-affecting-tech-right-now

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」からのオリジナル記事です]

この著者の他の記事を読むにはここをクリックしてください

<<:  テクノロジーは無罪? AIが女性の服を直接「脱がす」!

>>:  ロボットがIoTアプリケーションの範囲を拡大する方法

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

強化学習を使用して、顧客が注目する広告を選択する方法

[51CTO.com クイック翻訳] 現在、世界中のデジタル広告代理店は、ニュースサイト、検索エンジ...

Pythonを知らない人は、人工知能時代の新たな「文盲」になるだろう

各段階で、「文盲」の定義は異なります。以前は、漢字を知らないことが文盲とみなされ、後には、英語を話せ...

3DES 暗号化アルゴリズムは S/MIME プロトコルに最適な選択肢でしょうか?

Q: S/MIME プロトコルでは 3DES 対称暗号化はどのように実装されていますか? A:実際...

2018年のソフトウェア開発に関する10の予測、注目のブロックチェーンとAIを含む

[[221321]]ブロックチェーン、NLP、AI 駆動型ツール、機械学習、サーバーレス コンピュー...

650億のパラメータ、すべてのパラメータを8つのGPUで微調整可能:Qiu Xipengのチームは大規模モデルの閾値を下げました

大規模モデルに向けて、テクノロジー大手はより大規模なモデルをトレーニングしており、学界はそれらを最適...

...

あなたは人工知能についてどれくらい知っていますか?普通の人として、私たちはもっと多くのことを知る能力を持っているのでしょうか?

それはとても神秘的で、本当にハイエンドで、急速に発展しています!それは私たちの周りにあり、あなたは気...

...

...

古代のLRから始まる初心者でもわかるレコメンデーションアルゴリズム入門

[[386397]]みなさんこんにちは。私は、気づかないうちに長い間、推薦システムに取り組んできまし...

普通のプログラマーがAIを活用する方法

[[187452]]現在、人工知能はますます人気が高まっている分野となっています。普通のプログラマー...

小中学生の安全を守るためにロボットは今や欠かせない存在です!

安全性について話すと、誰もが必ずそれに共感します。時代の急速な発展に伴い、人々の個人的な安全がますま...

...

機械学習を使用してデータセンターの電力を管理するにはどうすればよいでしょうか?

[[249391]] [51CTO.com クイック翻訳] データセンターがますます複雑になってい...

教育におけるAIの想像力と限界

広東省の有名な重点中学校である広亜中学校は最近、電子ブレスレット3,500個を購入するために485万...