あなたの AI は規制に対応できる準備ができていますか?

あなたの AI は規制に対応できる準備ができていますか?

現在、人工知能 (AI) に関する同様の規制が世界中の複数の地域で施行され始めており、GDPR に関する業界の経験は、企業が AI に対する避けられない規制調査に備える方法を知る手がかりとなります。

企業は現実を直視すべき

GDPR の一部は企業にかなりのパニックを引き起こしました。当時の新しい規制では、アルゴリズム分析 (具体的には機械学習モデル) がどのように決定に至ったかについて、正確でわかりやすい説明を企業が提供することが求められたからです。この規制により、個人は自動化された決定について説明を要求し、それを受ける権利が与えられているが、実際にこの分野で権利を行使する消費者はほとんどいない。

しかし、GDPR が施行されてから 6 年が経過しているにもかかわらず、機械学習の解釈可能性に関する業界標準はまだ生まれていません。分析を理解し、制御するための明確なガイドラインをまだ模索している段階であるため、より広範な AI 規制への道も困難なものとなる可能性があります。

実際、AI 技術の開発方法と使用方法に対する政府による規制は避けられません。主な理由の1つは、AIの自己規制には高いリスクが伴うことです。

2021年に実施された調査では、人工知能の分野における自社の責任がどうあるべきかについて、経営幹部の間で合意が得られていないことが示されました。たとえば、調査に参加した企業のうち、社内に倫理委員会を設置している企業はわずか 22% でした。一部の経営者は、AI アプリケーションは倫理規制に準拠する必要はなく、高リスクまたは低リスクとして分類するだけでよいと考えています。他の人々は、「十分に公平」かどうかを判断するためのツールや、偏見を構成するものを定義する基準が不足していることに苦しんでいます。

リスクにさらされること(そして最終的には政府規制との衝突)は、関与を促進し、AI を取締役会レベルのトピックに引き上げる上で重要になります。最高リスク管理責任者 (CRO) が AI リスクを追跡していない場合は、追跡する必要があります。さらに適切なこととして、CRO は、自らがサポートでき、規制当局の監視に耐えられる方法で倫理的な AI 標準とモデル開発手順を定義する包括的なエンタープライズ AI ガバナンス フレームワークを提唱する必要があります。

GDPR は、分析による意思決定の内部の仕組みに関する個々の消費者の懸念の急増を引き起こしたわけではないかもしれませんが、AI の勢いが強いことは決して良い兆候ではないことに専門家も同意しています。 2021年のピュー・リサーチの報告書では次のように述べられています。

多くの(専門家の)回答者は、地政学と経済競争が AI 開発者の主な原動力であり、倫理的問題は二次的な要因であると考えています。専門家の中には、AIツールの作成者はチームで作業しており、倫理的な懸念に対処するシステムを設計する動機はほとんどないか全くないと言う人もいます。

訴訟、消費者の不信、活動家グループからの反発、そして最終的にはより広範な政府規制を回避するために、企業は成長し、AI システムの設計方法と AI リスクへの対処および管理方法を自ら確立する必要があります。

倫理的であるよう努めている人はたくさんいますが、「倫理的な AI」を具体的かつ測定可能で明確な言葉で定義することを支持する人は多くありません。企業が一斉に GDPR の説明可能性セクションに対応しなかった場合、組織が新しい AI 規制にどのように対応するかが示され、新しい規制がどのように適用されるか (どの部分か)、コンプライアンスがどのように測定されるか、合格または不合格の基準はどこになるかを理解するのに苦労することになります。解釈、測定、閾値のこの乱雑な混合は、さらに大きな混乱を招くことになります。

AIのためのルールが必要

AI 規制が成功するには、高速道路システムのように、速度制限や違反を客観的に測定して処罰できる必要があります。したがって、企業や業界は分析上の決定や AI モデルの説明方法について合意できないため、専門家を招き入れて難しい決定を下す権限を与える必要があります。つまり、特定のツールやアルゴリズムに何が許容されるかを定義し、業界が測定する合格/不合格の指標を標準化する必要があります。単に「自己申告」基準を設けて、その基準を満たす方法について多くの混乱を招くのではなくする必要があります。

このようにして、AI がどのように発展しているか、その能力は何か、AI は仕事をうまく正しく行っているのか、それとも不十分で間違って行っているのかを客観的に測定できます。

特定の外国産業は、分析モデル、分析決定、違反、罰則の最前線に立っています。住宅ローン業界が良い例です。信用決定は、偏見や差別を排除するために設計されたガイドラインに従います。ルールに従わない銀行(偏ったデータ、意思決定基準、またはモデルを使用する銀行)は、規制当局から厳しい罰則を受け、最終的には消費者の信頼とビジネスを失うことになります。

法律がAIの倫理を推進する

AI擁護団体の台頭は、GDPRや関連規制で予想される個人の苦情よりもはるかに大きな影響力を持っています。これらの団体は、AI が消費者の生活に与える影響、そしてもちろん偏った AI による法的責任の可能性について、より一層の認識を求めています。最も重要なのは、リスクにさらされることで、特に AI を使用する革新的な企業が集団訴訟の対象になっている場合、企業は AI の倫理的問題や偏見の問題に取り組むよう促されることが多いということです。


<<:  Nature: 科学者がディープラーニングを使って初めて人間の意識を定量化

>>:  「半導体第一の都市」上海、ついに半導体製造再開の夜明けを迎える

ブログ    

推薦する

GPT-4 はチューリングテストに合格しませんでした。 60年前、古いAIはChatGPTに勝利しましたが、人間の勝率はわずか63%でした。

長い間、「チューリングテスト」は、コンピュータが「知性」を持っているかどうかを判断するための中心的な...

...

Google 創設者が正式に LLM 戦争に復帰!ジェミニの開発を導く、OpenAIとMetaとの戦いが迫る

4年前に辞任したGoogleの共同創設者がついに復帰!ウォール・ストリート・ジャーナルの報道によると...

デザイナーが危険にさらされています! AI広告デザイン分野におけるSuningの探求と実践

[51CTO.comより引用] 人工知能時代の到来とともに、商業デザイン分野における芸術と技術の競争...

...

これら5つのコアテクノロジーを理解すれば、人工知能はもうあなたの身近な存在に

人工知能は現在最も注目されている産業であり、将来的にはロボット、スマートセンサー、ウェアラブルデバイ...

...

...

OpenAI が Stable Diffusion を救います! Ilya Song Yang らによるオープンソースの Dall E3 デコーダー

予想外にも、OpenAI は「競合相手」である Stable Diffusion を活用しました。話...

Ant GroupとCVPR22 Workshopが共同でビジュアルインテリジェンスコンテストを開催し、1,300以上のチームが参加した。

6月19日、第17回IEEEコンピュータ協会バイオメトリクスワークショップ(CVPR22)とAnt...

物流業界におけるインテリジェント化のトレンドは、倉庫ロボットの将来性を浮き彫りにしています。

近年、電子商取引業界の急速な発展により、物流業界、特に物流倉庫に対する要求は徐々に高まっています。人...

AIシナリオの実装を加速させる2019年北京人工知能産業サミットフォーラムが北京で成功裏に開催されました

2019年6月28日、北京で2019年北京人工知能産業サミットフォーラムが開催されました。主催は工業...

OpenAIがついにオープン:DALL-E 3の論文が発表され、ChatGPTが開始、著者の半数が中国人

最後に、「OpenAI は再びオープンになりました。」 OpenAIが発表したばかりのDALL・E ...

PyTorch を使用した Mixture of Experts (MoE) モデルの実装

Mixtral 8x7B の発売は、オープン AI の分野、特に Mixture-of-Expert...

マスクは想像力が豊かだ!コンピュータと人間の脳を融合する

[51CTO.com からのオリジナル記事] ウォールストリートジャーナルの最近の報道によると、テク...