2019年に解決すべき11のAI倫理的ジレンマ

2019年に解決すべき11のAI倫理的ジレンマ

ビッグデータダイジェスト制作

編集者: Luan Hongye、Aileen

今こそAIの倫理について議論すべき時です。機械学習は新しい技術開発ではありませんが、これは人工知能の発展において重要な時期です。以下に挙げる 11 の問題を含め、対処すべき倫理的問題は数多くあります。

AIを非倫理的な目的で使用する

1. 経済格差と労働問題

テクノロジーが進歩するとき、私たちがまず注目しなければならないのは雇用の安定です。最初の産業革命と同様に、労働の全面的な自動化は労働者を恐怖に陥れました。

米国政府が初めて大学教育を推進したのは第一次産業革命の頃でした。当時のアメリカ人にとって、問題は大学の費用ではなく、学位を取得するために仕事を中断することによる機会費用だった。労働者に学習を強制するのは野蛮な行為だと言えるかもしれないが、人工知能(第四次産業革命)によって促進される自動化の次の段階もまた、労働者に大学の学位取得を促している。

政府が、自動化によって削減される労働者を補うために、普遍的な所得(全員に基本賃金を与える)を提供しない場合。学生ローン危機は、失業した労働者がさらに教育を受ける意欲をそがれさせ、貧困と所得格差の循環につながる可能性もある。

2. 人間の行動への影響

気づいているかどうかに関わらず、人々は日常のタスクを完了するために機械とやり取りすることがますます増えており、透明性と行動への影響の問題が生じています。たとえば、Google Duplex は、本物の人間のように話し、電話でレストランの予約ができる AI システムです。システムは実際の人間に匹敵するほど迅速に応答できます。

人間の注意力と忍耐力には限界がありますが、機械の感情的なエネルギーには限界がありません。もちろん、機械の限界は技術的なものですが。これは顧客サービスなどの特定の分野では有益かもしれませんが、この無制限の機能はロボットに対する感情的な依存を生み出す可能性があります。これは、機械に恋する男の物語を描いた映画「her」に反映された問題です。

[[269105]]

実際の人間を模倣するこれらのロボットに加えて、多くのアプリはアルゴリズムを使用してユーザーを中毒にするように設計されています。たとえば、Tinder は、類似したマッチングを推奨せず、ユーザーをアプリ内に長く留めておくことで、AI 駆動型アプリにユーザーをより長く縛り付けるように設計されています。

3. 雇用と犯罪における偏見による差別

AI倫理において最も緊急かつ広く議論されている問題の1つは、雇用や犯罪などの分野における予測分析システムにおける偏見の問題です。アマゾンはかつて、AI駆動型アルゴリズムを使用して過去のデータを活用し、優秀な求職者を選別した際に採用偏見事件を起こし有名になったことがある。以前の候補者選択では性別による偏りがあったため、アルゴリズムでも男性を選択する傾向があります。

ニューヨーク市警察は3月、警察のデータを精査して犯罪パターンを発見し、類似の犯罪を関連付けるアルゴリズム機械学習ソフトウェア「Patternizr」を開発したと明らかにした。 2016年から使用されているこのソフトウェアは、強姦や殺人事件では使用されておらず、パターンを探す際に性別や人種などの要素を除外している。

これは、人種的偏見に基づいて犯罪や違法行為を予測した以前のアルゴリズムからの前進ではあるが、過去のデータセットからあらゆる種類の差別を積極的に排除することは標準的な方法ではない。つまり、この種の訓練された差別は、良くても侮辱や不便であり、最悪の場合、個人の自由の侵害や組織的抑圧のきっかけとなるのです。

4. 誤報とフェイクニュース

[[269106]]

AI の倫理に関するもう 1 つの問題は、改ざんです。改ざんとは、多くの場合悪意を持って、元のメディアや音声から AI を使用して画像、ビデオ、音声を操作し、他のものの本来の意味を変更することです。ディープフェイクには、顔の入れ替え、声の模倣、顔の再現、リップシンクなどが含まれます。古い写真やビデオ編集技術とは異なり、ディープフェイク技術の開発の目的は、技術的なスキルを持たない人でも簡単に使用できるようにすることです。

元NATO事務総長のニーナ・シック氏などの専門家によると、ディープフェイクによる画像や動画の操作は、例えばドナルド・トランプ氏が核戦争を宣言するリップシンク動画など、世界秩序に壊滅的な影響を及ぼす可能性があり、その結果、ディープフェイク技術はRedditなどのサイトで非常に厳しい検閲とブロックの対象となっている。

前回の米国大統領選挙の際、ロシアは同様の手法を使ってフェイクニュースを使ったハッキン​​グ攻撃を実行した。こうした情報戦争は日常的なものになりつつあり、事実を変えるだけでなく、特定の意見や態度を強制的に変えるためにも存在しています。このアプローチは英国のEU離脱運動でも使用され、高まる政治的緊張と混沌とした世界情勢に拍車をかけました。

人工知能を利用して消費者のプライバシーを侵害する

5. 消費者のプライバシーとセキュリティ

政府は消費者のプライバシーを保護するために多くの規制を制定していますが(EUデータプライバシー法GDPRなど)、潜在的な脅威は依然として大きいです。

データ収集: 携帯電話から Bluetooth 対応の電球まで、ほとんどの消費者向けデバイスは、より優れた、よりパーソナライズされたサービスを提供するために AI を使用して個人データを収集します。この種のパーソナライゼーションは、ユーザーが同意し、データ収集が透明である場合に優れた機能となります。合意や透明性がなければ、この機能はユーザーに悪い体験を与えることになります。

識別と追跡: 電話追跡アプリは、タクシーに iPhone を置き忘れたり、ソファのクッションの間に鍵を置き忘れたりしたときに便利です。しかし、家庭内暴力の被害者が匿名を希望する場合など、個人情報を追跡することが安全でない場合もあります。

音声および顔認識: 前の機能と同様に、音声および顔認識は、日常的に使用する消費者向けデバイスに搭載されていると便利な機能です。たとえば、iPhone では、ユーザーはパスワードを入力する代わりに顔認識を使用して携帯電話のロックを解除できます。

6. グローバルセキュリティとインテリジェンス

国際的な誤報(フェイクニュース報道など)のリスクと同様に、この点における AI の倫理的リスクは非常に大きいです。人間の兵士を AI ロボットに置き換えたり、自動化された兵器を開発したりすれば、政府の防衛軍による危害のリスクをある程度軽減できるかもしれないが、AI がもたらす倫理的なジレンマは核爆弾がもたらすものと匹敵する。

国際指導者らが核兵器実験における人工知能の役割について言及することはほとんどないが、マイクロソフトのような企業は国防総省に高度な自動認識システムを販売する意向をひそかに発表している。

AIを活用して消費者の主体性を減らす

7. シンギュラリティ、あるいはロボットの支配者

宇宙家族ジェットソンの悪夢のようなストーリーラインのように、ロボット支配者の概念は、AIを取り巻く最も明白な倫理的ジレンマとして消費者の心に浮かび上がっています。オックスフォード大学の第一人者であるニック・ボストロム氏は、将来のAIシステムが人間の価値観と矛盾する価値観を持つようになると、悪意のあるロボット支配者のビジョンが現実になる可能性があると述べた。自律性のない人間は誰でしょうか?自律性を与えられたロボットは誰でしょうか?そして最後に、同じ自由と知性を与えられたとき、両者をどのように定義するのでしょうか?

グーグルの未来学者でチーフエンジニアのレイ・カーツワイル氏は、シンギュラリティは私たちが考えているよりも近いと語る。カーツワイル氏は、2045年までに人間の知能と人工知能が融合し、私たちはさらに賢くなるだろうと予測している。それは恐れるべき未来ではなく、期待すべき未来だ。

8. AIの人間化

[[269107]]

AI システム (またはロボット) には権利があるのでしょうか? カーツワイルが正しいとすれば、AI を人道的に扱うということは、人間を人道的に扱うということに他ならないかもしれません。現在、Sophia (Hanson Robotics 社が開発したヒューマノイド ロボット) など、一部の AI システムには市民権さえあります。

人工知能と予測不可能な二次的事象

9. AIが犯すミス

人工知能が存在するなら、人工的な愚かさも存在するだろう。現在、AI システムは特定のドメインのパターンに基づいてトレーニングされており、すべての可能性をカバーできないため、新しいシナリオが提示されると簡単に混乱する可能性があります。これは、AI システムには人間のように類似性を認識する能力がまだないためです。たとえば、パターン認識では、AI システムがトレーニング セットのデータとは異なるシナリオに遭遇した場合、コンテキストに基づいて判断を下すことはありません。

AI システムが簡単に騙される可能性があるということは、機械学習における敵対的攻撃などの悪意のある影響に対しても脆弱であることを意味します。たとえば、アルゴリズムは影響力のあるアカウントからフェイクニュースを読み取り、ジャーナリストのように公開前にソースやアイデアを確認するのではなく、最適化されたコンテンツ要素に基づいてそれを宣伝することができます。

10. AI規制

テクノロジー業界は一般的に、規制の欠如で物議を醸している。その理由の1つは、業界の変化が急速であるため、どこから施行を始めるべきかを判断するのが難しいこと、もう1つは、テクノロジー文化が西洋世界と同じ夢、つまりいかなる犠牲を払ってでも革新を追求することにある。

グーグルのように自主規制の試みはこれまでもあった。グーグルは社内倫理委員会を設置したものの、気候変動を否定し、移民反対の感情を持つメンバーを含む物議を醸すメンバーがいたため、すぐに解散した。マイクロソフトも同様に、政府に対し、特に顔認識ソフトウェアなどのAIシステムを規制するよう口頭で促しているが、競合他社は同社と立法府の関係が近すぎると指摘している。

同時に、AI システムはほとんど規制なしに開発され、導入されています。

11. 倫理的な AI が不可能なら…

私たちの最大限の努力にもかかわらず、AI が道徳的になることは決してないかもしれません。 AI システムを倫理的にトレーニングするには、次のことが必要です。

  • AIが道徳的に行動する動機を持っていると仮定する
  • 普遍的な道徳ルールの出現を期待する
  • AI を道徳的に訓練する人々自身も道徳的であると私は信じています。

スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクはいずれも、超知能は慎重に扱われるべきだと述べた。 AIは倫理的になれるのか?意見は様々だが、AI倫理の時代が来ていることは明らかであり、私たちが行動を起こさなければ大きな間違いとなるだろう…

関連記事: https://blog.remesh.ai/top-11-ai-ethics-dilemmas-affecting-tech-right-now

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」からのオリジナル記事です]

この著者の他の記事を読むにはここをクリックしてください

<<:  テクノロジーは無罪? AIが女性の服を直接「脱がす」!

>>:  ロボットがIoTアプリケーションの範囲を拡大する方法

ブログ    
ブログ    

推薦する

テスラは最初にこの問題の矢面に立たされ、自動運転の安全性の問題が再び話題となっている。

今日、自動運転は自動車産業の発展と変革の重要な方向性の一つとなっています。自動運転技術が成熟するにつ...

...

機械学習の基礎知識がゼロでも、TensorFlow で画像認識システムを構築する方法をお教えします (パート 2)

[[182024]]これは Wolfgang Beyer によるブログ投稿です。この論文では、Te...

...

...

プライバシー情報セキュリティに注意を払い、顔認識の数十億ドル規模のブルーオーシャンを開拓しましょう

近年、人工知能の継続的な発展とインテリジェント時代の静かな到来に伴い、顔認識に代表される生体認証技術...

新世代のAIがディープラーニングの問題を解決する

では、新世代の人工知能とは何でしょうか? 知能とは、学習する能力と問題を解決する能力です。学習は問題...

...

スマート製造を活用して持続可能な工場フロアを構築するにはどうすればよいでしょうか?

自動車メーカーは、施設を近代化し、事業運営をより持続可能にするために、スマート製造戦略を採用していま...

FacebookはCNN Transformerの利点を組み合わせ、誘導バイアスを柔軟に利用するConViTを提案している

[[411034]] AI 研究者は、新しい機械学習モデルを構築し、パラダイムをトレーニングする際に...

開発者にとって朗報:中国初の AI 自動脆弱性マイニング システムが公開テストを開始

最近、国家発展改革委員会は初めて「新インフラ」情報インフラの範囲を明確にした。5G、人工知能、クラウ...

マルチモーダル生成AIの深掘り

マルチモーダル生成型人工知能 (GenAI) は、汎用人工知能の実現に向けた次の大きな進歩と言えます...