[51CTO.com クイック翻訳] 人工知能ツールを導入する IT リーダーは、責任の取り方、プライバシーの保護、倫理の維持といった難しい問題に直面しています。人工知能をめぐる倫理的議論を引き起こしている 5 つの問題に人々は注意を払う必要があります。 人工知能(AI)が人々の仕事や生活をさまざまな面で向上させていることに、多くの人が気づいています。 AI システムはすでに、コールセンター、自動運転車、ファーストフード店のセルフサービスキオスクでの注文受付などに使用されています。今後、人工知能と機械学習はより重要な技術となり、さまざまな産業や分野の発展に影響を及ぼすでしょう。私たちの仕事や生活の多くを機械に委ねるにあたり、AI の採用と開発を推進する倫理は何か、そして AI の進むべき道を定義するのは誰かを理解する必要があります。
多くの CIO は、自動倉庫など、ユーザーには見えない領域に AI テクノロジーを導入し始めています。しかし、特に CIO が AI の使用を顧客対応領域に拡大しようとしている場合、回答する必要のある倫理的な問題を認識しなければならず、そうしないと責任問題に巻き込まれるリスクがあります。 ここでは、倫理が AI システムにどのような影響を与えるか、そして CIO がなぜ今これらの問題について議論する必要があるかを明らかにするために答えるべき 5 つの質問を示します。 1. 機械に責任を負わせることはできますか? 2019年、アリゾナ州テンピの路上でUberの自動運転車が歩行者をはねて死亡させる事故が発生した。歩行者が横断歩道を渡っていなかったため、自動運転車が歩行者を歩行者として認識しなかったためである。人間の運転手であれば、これが歩行者による無作為な横断だと認識し、間に合うように回避策を講じるはずです。では、この事故における過失の責任は誰が負うべきなのでしょうか? アリゾナ州の裁判所は、車内に座っていた「安全運転手」が過失で有罪となり、状況に間に合わなかったとの判決を下したが、いつか車は本当に無人運転になるだろう。この場合、Uber に責任があるのでしょうか? LiDAR 技術に問題があるのでしょうか? 違反の説明が忘れられた場合、コードを書いたプログラマーの責任なのでしょうか? 自動運転車は、疲れていたり、酔っていたり、注意散漫だったりする人間のドライバーよりはるかに安全だと考えられていますが、それでも犠牲者は出ます。では、どれくらいの人数になるのでしょうか? 米国運輸省の国家道路交通安全局の調査データによると、2017年に世界中で走行距離1億キロメートルあたり平均1.16人が死亡しました。比較すると、ウェイモが開発した自動運転車は、2009年の発売以来1,000万マイル走行している。何十億キロもの安全性テストを行わずに、自動運転車がどれだけ安全であるかを知ることは不可能です。 自動運転車が原因の負傷や死亡事故はすべて、責任者に対する訴訟につながる可能性があるので、すべてのレンタカー会社や自動車会社がこの訴訟の波に巻き込まれることになるのでしょうか? CIO が関心を持つべき理由: AI により、責任モデルは消費者ではなく生産者に移行する可能性が高くなります。これらのソリューションを実装する人にとって、適切な準備をするために、これがビジネスにどのような影響を与えるかを調査することが重要です。 2. 説明できないことは説明できるか? 人工知能と機械学習モデルは、人々の生活に大きな影響を与える重要な決定を下す役割を担っています。リーダーに対してどの求職者を雇うべきかを指示したり、裁判官に対して犯罪者にどのような刑罰を科すべきかを指示したりすることができます。したがって、問題は、そのような決定を下す理由をどのように説明するかということです。 ディープラーニング モデルは、受信した入力データを処理して結果を生成するニューラル ネットワークを通じて機能します。この一連の決定がどのようになされたかを理解するのは容易ではありません。同じ犯罪に対して、ある受刑者が2か月の刑期を受け、別の受刑者が1年の刑期を受ける理由が説明されない場合、これは問題になります。 現実の世界では、人種的偏見が司法手続きにおける人間の意思決定に浸透するため、この方法は機能しません。このバイアスは、データセットを通じて無意識のうちに AI モデルに渡される可能性があります。したがって、説明責任が重要です。 CIO が関心を持つべき理由: 特にその決定が間違っているように見える場合、AI ソフトウェアがどのように結論に達したかを誰もが知りたいからです。ニューラル ネットワークでは、これらの質問に答えるのが困難になります。人間はモデルに入力を与えてどのような出力が得られるかを見ることができますが、決定論的であるのではなく、機械の作業を解釈するのは主に人間次第です。そして今のところ、人々はこの事実を受け入れなければなりません。 3. AIの世界にはプライバシーはあるのでしょうか? 将来的には、家庭の冷蔵庫が牛乳の補充を知らせてくれるようになるでしょう。そしてスーパーマーケットでクッキーの棚を通り過ぎると、突然仮想看板が現れ、オレオクッキーがセール中であることを知らせます。棚を閲覧すると、各商品の横に栄養情報が表示されます。 『マイノリティ・リポート』のようなSF映画がまもなく現実になるだろう。 こうした情報とアクセシビリティの爆発的な増加は歓迎すべきものですが、それを可能にするツールについては議論の余地があります。ほとんどの人は、携帯電話の電源を入れるたびに、一定レベルのプライバシーを放棄していることを認識しています。これは人工知能によってさらに悪化しており、人々はそれを懸念しています。調査会社ジェンパクトの最近の調査によると、消費者の71%が人工知能がプライバシーを侵害し続けることを懸念していることが明らかになった。顔認識ソフトウェアはますます高度化しており、群衆の中から顔の特徴を抽出できるようになりました。一部の国では、特定のグループを追跡・管理するためにすでに顔認識システムを導入しているが、これはより広範囲な監視活動の一側面にすぎない。 この技術に強く反対する人もいるが、どの企業や政府が顔認識技術を積極的に活用しているかは必ずしも分かっていない。一部のテクノロジー企業は論争を避けているが、クリアビューのような他の企業はAI搭載の顔認識ソフトウェアを米国の法執行機関に販売している。 CIO が関心を持つべき理由: Facebook と Google はデータ プライバシーをめぐって問題を抱えており、規制当局はますます緩いデータ プライバシー基準を管理するようになっています。組織が顧客に関する大量のデータを収集し、そのデータからより多くの情報を抽出するため人工知能や機械学習などのツールを使用する際には、顧客のプライバシーを常に最優先に考える必要があります。そうでなければ、これがすべての技術的問題の原因となった場合、訴訟や罰金が発生することになります。 4. 悪意のある攻撃を制御できますか? テクノロジーがどんなに崇高な意図を持っていたとしても、それを私利私欲のために利用しようとする人は必ず存在するでしょう。人工知能も例外ではありません。ハッカーはすでにこれを利用して、高度なフィッシング攻撃を仕掛けたり、さまざまな組織に対して悪意のあるサイバー攻撃を仕掛けたりしています。 ボットネットは、ソーシャル メディア ネットワーク上で虚偽の誤解を招く情報を拡散することで、積極的に選挙に影響を与えようとしています。この大規模な偽情報キャンペーンは2016年の米国大統領選挙で非常に効果的だったため、選挙結果に何らかの影響を与えたのか疑問視する声もあった。ソーシャルメディア企業は、誤情報がより広い層に広まる前に削除したり警告したりするために、自社のネットワークの監視を強化することを約束した。 中には、AI テクノロジーを使って人々の現実認識を変えようとしている人もいます。ディープフェイクとは、AI によって生成された、誰かの言葉や行動を偽造したビデオや音声の録画です。たとえば、テスラが四半期利益の期待を達成できなかったことについてイーロン・マスクがコメントするビデオを公開し、株価を下落させるなどです。視覚的脅威インテリジェンス企業Sensityは、ディープフェイクの事例数は6か月ごとに倍増すると予想されており、すぐに主流になると述べている。この技術によってもたらされる問題を解決するために法医学的手法が使用されなければ、ディープフェイクは壊滅的な結果をもたらすでしょう。 CIO が関心を持つべき理由: サイバーセキュリティの状況はますます複雑になっています。人工知能はハッカーに恐ろしい新たなツールを与えた。サイバーセキュリティの確保から企業の CEO になりすますことまで、人々はこれらの脅威を認識し、対応する必要があります。 5. AI倫理の責任者は誰ですか? これらすべての質問に共通するのは、AI システムの倫理基準を確立し、施行する責任は誰にあるかということです。 グーグルやマイクロソフトなどのテクノロジー大手は、政府が介入して人工知能を適切に規制する法律を制定すべきだと主張。合意に達することは容易ではなく、社会が直面している問題が AI モデルに引き継がれないようにするためには、多くの利害関係者からの意見が必要です。これまで、その責任は外部の監視団体と声を上げてきた一部のテクノロジー企業の従業員に課せられてきた。グーグルは、従業員による数ヶ月に及ぶ抗議活動を受けて、軍用ドローン向け人工知能プロジェクトを中止した。 このため、多くの企業は、事業部門をこの新しい領域に導くために最高倫理責任者を任命しています。 CIO がこの質問をすべき理由: 国家レベルおよび国際レベルで AI 規制を策定するには、まだ長い道のりが残っています。人間は AI の使用方法を自ら監視する必要があります。物議を醸す AI の実装はさらなる障害に直面することになるだろう。疑わしい行為は最終的には発見されるでしょう。そうなると、企業は倫理的な AI ポリシーを積極的に策定して実装するのではなく、対応せざるを得なくなります。 真に倫理的な AI を実現するには、まだ長い道のりが残っています。これらの難しい質問をすることで、私たちの生活や組織で AI にどのような役割を担ってほしいかを決めることができます。今こそ適切な時期です。私たちは日々、より重要な問題の解決を AI に求めており、だからこそ私たちはこれらの哲学的な質問に取り組んでいるのです。質問して探求する意欲があれば、答えはそこにあります。 原題: 人工知能 (AI) 倫理: CIO が問うべき 5 つの質問、著者: Mark Runyon [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
<<: AI は言語をより早く習得するために何ができるでしょうか?
>>: マイルストーンではありません! Facebookの100言語翻訳モデルは過大評価され、疑問視されている
仕事や住居のための物理的な空間として機能することから、入居者に活気ある建築体験を提供することまで、近...
最近、DeepMindの共同創設者で現在はInflection AIのCEOを務めるMustafa ...
[[318509]]プラトンについてテンセントの高性能グラフコンピューティングフレームワークPlat...
[[278853]]ビッグデータダイジェスト制作出典: thegradient翻訳者: 張大毓如、...
近年、人工知能の応用は世界中で大きな進歩を遂げています。職場でのビジネス活動の拡大に伴い、クラウド ...
[[360047]]今年、ほとんどの企業は、新型コロナウイルス感染症による混乱に対処し、リモートワー...
COVID-19 パンデミックにより、増大するデータ量を管理し、そこから洞察を得るための IoT に...
[51CTO.com オリジナル記事] Google の中国復帰について新たな声が上がっている。最...
著者 | Fu Haoxian、Peng Xiangzhou 他グラフニューラルネットワークの長期的...
AIベースの機密情報検出サービスプロバイダーであるText IQのCEO、Apoorv Agarwa...