AI倫理の夜明け

AI倫理の夜明け

平等な代表から AI 法制へ AI の倫理基準を改善するには、テクノロジーにおける平等な代表と、EU が提案した AI 法制などの新しい法律が必要です。倫理的な AI を実践する必要があり、新しい法律はこれを施行するのに役立ちます。

組織がテクノロジーの可能性を活用して業務と顧客体験を大幅に改善しようとしているため、人工知能 (AI) の使用が急増しています。抑制されないまま放置されると、AI 利用のこの増加は危険になる可能性があります。

人々の権利を侵害し、生活に影響を与え、さらには戦争の脅迫まで行う。

[[421431]]

AI 倫理は、AI 技術の開発と使用における倫理的行動の指針となる善悪の基準として認められた一連の価値観、原則、技術であり、技術の多様性の向上と AI アルゴリズムの作成とともに、抑制されていない AI の脅威に対する解決策となります。

この記事では、AI を放置するとどのような損害が発生する可能性があるか、AI の作成における平等な代表の重要性と教育システムの役割、透明性を通じて信頼を構築することの重要性、欧州委員会の最近の AI 法案とこれが EU および世界のその他の地域の AI 業界にどのような意味を持つか、組織が倫理的な AI を実装する方法について説明します。

AI差別

ヘルスケアなどの業界で AI を活用することで、がんの早期発見など、これまでにない大きなメリットが生まれています。しかし、この技術は、特に差別に関連して、多大な害を引き起こす可能性があります。クリフォードチャンス・テック・グループのパートナー兼共同責任者であるジョナサン・キューリー氏は、採用におけるAIを例に挙げ、アルゴリズムが宗教、人種、教育、または地理的な場所に基づいて適格な候補者を却下するケースがあると説明した。

「問題は、(AI採用サービスを利用している)一部の企業がその技術の仕組みを理解しておらず、固有の偏見、つまり組み込まれた偏見に気づいていないことです。突然、目に見えない大きな問題を抱えることになります」と彼は語った。問題は採用プロセスで終わるわけではありません。英国と、最近ではオランダのUberの運転手たちは、Uberのアルゴリズムによって不当に解雇されたと主張している。

「[これらのAIアルゴリズム]は、人の人生の見通し、仕事を得る能力、医療を受ける能力、製品を購入する能力、住宅ローンを組む能力を根本的に損なう可能性があります。一般の人々は、こうしたテクノロジーの一部がいかに陰険であるかを十分に理解していないと思います」とキューリー氏は付け加えた。

この AI による差別とそれが人々の生活に与える影響を克服するには、AI アルゴリズムが、製品がサービスを提供しようとしている人々を代表する適切なデータセットにアクセスする必要があります。ほとんどの場合、AI の偏見を排除するために、あらゆる人口統計が代表される必要があります。平等な表現と教育上の障壁 AI アルゴリズムは基本的に人間によって構築されます。テクノロジーは社会的な創造物であり、社会全体を代表する必要があります。

問題は、STEM 科目を学び、AI アルゴリズムを設計する人の大多数が、特定の人口統計、つまり白人の中流階級の男性であることです。テクノロジー分野では、性別だけでなく、少数派や過小評価されている背景に関しても、多様性が著しく欠如しています。教育と職場における代表性の欠如が解決されない限り、AI による偏見と差別は、性別、人種、社会経済的背景を問わず存続し続けるでしょう。

これには多くの例があります。一つは、男性と女性に異なるクレジット限度額を設定していたとされるアップルのクレジットカード、そしてもう一つは、学生をクラス分けに基づいて採点するAレベル・アルゴリズムの大失敗だ。バランスを是正するのに役立つ取り組みがいくつかあります。たとえば、クリフォードチャンスは、オックスフォード大学のハートフォード・カレッジと共同で奨学金制度を立ち上げ、コンピューターサイエンスを学ぶ学生の多様性を促進しています。その目的は、過小評価されているグループの若者にテクノロジーに関わるキャリアを追求するよう促し、そうすることでテクノロジーにおける偏見や差別の根強い事例を減らすことです。

これに対してキューリー氏は次のようにコメントした。「さまざまな背景を持つ多様な人々が責任者となり、社会の声やさまざまな視点を代表できれば、彼らが構築するテクノロジーに偏りが生じる可能性は低くなります。私たちは望む法律をすべて作ることができます。しかし、実際には、最初から倫理的なテクノロジーを構築できるようにするために、教育の基礎から始める必要があります。これは、特権階級の白人だけではなく、多様な人々がコンピューターサイエンスを学んでいることを意味します。クリフォードチャンスの上級弁護士ハーバート・スワニカー氏は、教育へのアクセスと機会を創出することが非常に重要であることに同意した。

「政府はテクノロジー、特にAIに関するリテラシーの向上に力を入れています」と同氏は語った。「企業の役割のひとつは、こうしたテクノロジープラットフォームの仕組みに関する情報を提供し、人々がテクノロジーをより信頼できるようにすることです。しかし、人々がテクノロジーに関わりたいと思うことが非常に重要であり、教育へのアクセスポイントを持つことが非常に重要です。」

企業向け人工知能ガイド: あなたのビジネスに適していますか?

真の AI の実現にはまだ時間がかかりそうですが、企業は機械学習などのインテリジェントな自動化を活用して、業務運営の改善、イノベーションの推進、顧客体験の向上に取り組んでいます。

AI法

より多様な才能をテクノロジー分野に取り入れることは、AI の偏見や差別の問題に対処するのに役立ちます。しかし、規制状況も承認される必要があり、より明確なものが必要です。

現在、人工知能の開発と応用には目に見えない壁が存在します。そのため、EUはAI法の提案を策定しており、キューリー氏はこれを「過去20年間で最も急進的な法的枠組み」であり、倫理的なAIの将来にとって必要な「安全基準」と呼んでいる。この提案が発効すれば、AIシステムの提供者とユーザーはデータの透明性、ガバナンス、記録保存、文書化に関する特定のルールに従うことが義務付けられることになる。また、リスクの高いエリアを人間が監視し、堅牢性、正確性、安全性に関する基準を確立することも必要です。

AI サプライヤーとユーザーは、EU 市場で AI を提供したり使用したりする前に、これらの要件を満たす必要があります。この法律が承認されれば、遵守できなかった場合には、GDPRと同様の罰金に加え、さらに高い罰金(3,000万ユーロまたは前会計年度の年間総売上高の6%のいずれか違反の重い方の金額)が科せられることになる。場合によっては、これらの規則は EU 域外の企業にも適用されます。他の地域と比較して、EU はこの AI 法制化に大胆な取り組みを行っています。対照的に、米国は、新たな規制がイノベーションを阻害するのではないかと懸念しているため、欧州連合ほど積極的な姿勢を取らないだろう。キューリー氏によると、「米国はより自由なアプローチを取るだろう。彼らは、FTCのような既存の枠組みがこの分野を規制するのに十分だと考えている。」

人工知能の世界大国とも言える東洋に目を向けると、AIは人間を標的にしたり、搾取したり、危害を加えたりするために使われるべきではない。欧州連合が提案したAI法案は最も包括的なものである。しかし、これは単なる 1 つの地域ではありません。この問題については世界規模で多国間の議論が必要です。データとAIの力に関しては透明性による信頼が極めて重要であり、この新しい法律は、ケンブリッジ・アナリティカのスキャンダルと同様に、一般大衆に啓蒙の新時代をもたらすのに役立つ可能性がある。自らの活動について透明性のある組織は、サービスを提供する人々の間で信頼を築くのに役立ちます。 「企業には今、新たなコンプライアンス問題になるだけではなく、これを乗り越えて透明性を受け入れるチャンスがある」とスワニカー氏は述べた。

施行 スワニカー氏は、GDPR の施行に課題があったのと同様に、提案されている AI 法案の施行も興味深いものになるだろうと述べた。

「最終規則が施行されるまでにはまだ時間がかかる。しかし、全体的な枠組みがリスクベースであることは明らかであり、特定の製品が無意識に人々を操作しようとしているかどうかを企業が意味のある形で評価する必要が出てくるだろう。」

「これを施行するのは間違いなく難しいので、目的にもっと合うようにコンセプトを明確にする必要があるだろう」と彼は語った。スワニカー氏はまた、この規制は欧州の基本的権利の概念に基づいており、EU法に基づいているものの他の法域では同一ではないため、世界の他の地域と比べて非常に欧州的なアプローチを取っていると指摘した。同氏は、前述のように、他の国々にも既存の法律があり、それが何であれ、企業がAIをどのように使用するかについて責任を負うことを期待していると付け加えた。

「ヨーロッパが何かやっているのに、他の国は関心がないというのはフェアではありません。AIとテクノロジーの使用を規制する方法については、地域によってアプローチが異なるだけです。」 「これはAIの使用方法を規制するものであり、AIそのものではありません。これは重要なニュアンスです。なぜなら、組織が実際にAIの使用が高リスクであるかどうかを考える必要があるからです。」

AI の倫理基準の実施 EU の AI 法の主要な原則の 1 つは、リスクの高い領域では人間による監督を義務付けることです。このテクノロジーを採用して実装するプロバイダーと組織は、その使用方法を慎重に管理し、先に進む前に安全性を確保するために厳格なレビューを実施する必要があります。現在の慣行とは異なり、組織がこのテクノロジーを導入する場合、それをレビューする必要があります。

実際には、Kewley 氏は、組織が AI 倫理基準を実装する際にはフォレンジック調査を実施する必要があると示唆しています。

「企業は会計基準や財務監査に慣れすぎていて、そうした慣行を中心にチームや方法論を構築しています」と同氏は言う。「それは企業の DNA の一部になっており、倫理的な AI を導入する最善の方法は、何を使用しているか、どのような状況で使用されているか、そしてその結果は何か、を効果的に正確に理解することです。製品のライフサイクル、どのように導入されているか、どの国で導入されているか、そしてどのような決定を下しているかを理解することも重要です。」

将来的には、組織は AI と「ボット」の動作を監視するチームを配置する必要もあるでしょう。この技術を放置しておくと、危険となり、まったく新しいチームや作業方法の創出が必要になる可能性があります。

<<:  今日のアルゴリズム: 文字列の乗算

>>:  AIの覚醒はなんと恐ろしいことか!人工知能は人間に取って代わり、地球の新たな支配者となるのでしょうか?

推薦する

...

...

年末総括:2020 年の人工知能の注目イベント一覧

スマート製造ネットワークニュース:2020年、「人工知能」は産業発展における高頻度のホットワードとな...

...

李開復:「AI+」には4つの段階があると考える理由

編集者注: これは、2019年上海世界人工知能会議でSinovation Ventures会長のKa...

「新しいインフラ」に注力 - Powerleader がコンピューティングパワーで人工知能を強化

「新インフラ」の7つの主要分野の一つとして、人工知能は政策推進と産業成熟度の大幅な向上の恩恵を受け、...

520 開発者のバレンタインデー: 全プラットフォームで 35 の PaddlePaddle アップグレード「Show AI」

「新インフラ」は中国の「産業インテリジェンス」に強力な新たな原動力をもたらした。インテリジェント時...

...

オープンソースの Gemma モデル: Google の言語の奇跡。命令チューニング、低ランク適応、Switch Transformer を使用して小さなモデルで遊ぶことができます。

言語は人間にとって最も重要なコミュニケーションツールであり、人工知能の分野における最も挑戦的な研究対...

人間は機械化され、機械は人間化されるのです!起こっていることはさらに恐ろしいことだ。

科学技術の継続的な発展に伴い、人工知能は徐々に科学技術分野の主な研究方向になってきました。 「ロボッ...

...

ジェネレーティブ AI がサイバーセキュリティのスキルギャップに与える影響

サイバーセキュリティ分野の仕事は需要が高く、有能な従業員が求められています。アメリカ国立標準技術研究...

機械学習は科学プロジェクトからビジネスプランまで3段階の戦略を完了します

【51CTO.com クイック翻訳】 2015年は機械学習技術が学術分野で形を成した年でした。具体的...

...

このレーシングAIはもはや短期的な楽しみを求めるのではなく、長期的な戦略を考慮することを学んだ。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...