専門家の見解:規制されていないAIは倫理的な偏見を生み出す可能性がある

専門家の見解:規制されていないAIは倫理的な偏見を生み出す可能性がある

透明性は、倫理的なビジネス上のジレンマにおいて重要な役割を果たすことがよくあります。情報が多いほど、何が許容できる結果で何が許容できない結果かを判断しやすくなります。財務が不一致の場合、会計上の誤りを犯したのは誰でしょうか?データが侵害された場合、それを保護する責任は誰にありますか? また、その責任は適切に果たされていますか?

しかし、バグや問題の明確な原因を探しても、誰も見つからない場合はどうなるでしょうか?ここで、AI は独特の倫理的考慮を生じさせます。

AI は組織において大きな可能性を示していますが、依然として問題解決のためのソリューションに過ぎません。これは誤解されている概念であり、企業内での実際の適用はまだ完全には実現されていません。多くの企業には、AI を真に革新的な方法で適用するための予算、人材、ビジョンが欠けているという事実と相まって、AI は依然として臨界質量に達するには程遠く、悪用される危険性があります。

しかし、AI が日常業務であまり目立たないからといって、組織内のどこかで役割を果たしていないということではありません。ビジネスにおける他の多くの倫理的ジレンマと同様に、AI における倫理的欠陥も影で起こることがよくあります。意図的かどうかに関わらず、AI プロジェクトやアプリケーションが倫理的な境界を破った場合、その結果は悪夢となる可能性があります。 AI における倫理的欠陥を回避する鍵は、プロジェクトに最初からコーポレートガバナンスを適用することです。

透明性と信頼性を備えたAIの構築

今では、AI がうまく機能しないというよくある例は誰もが知っています。肌の色が濃い客には正しく機能しない石鹸ディスペンサー、白人にはより正確なパルスオキシメーター、さらには犯罪者が刑務所に戻るかどうかを予測するアルゴリズムなどはすべて、(おそらく意図せずに)偏った AI の例です。

こうした状況は悪い見出しやソーシャルメディアでの反発を招くだけでなく、テクノロジーが不信感を持たれ続ける限り実現不可能となる、より正当な AI の使用事例を損なうことにもなります。たとえば、ヘルスケアの分野だけでも、AI はがんの診断を改善し、再入院のリスクが高い患者を特定して追加サポートを提供できる可能性があります。 AI への信頼を築くことを学ばなければ、これらの強力なソリューションのメリットを十分に享受することはできません。

AIについて同僚やビジネスリーダーと話すとき、私は最初からAIの仕事における透明性とガバナンスの考え方を支持してきました。具体的には、次のことをお勧めします。

1. 倫理的なAIは真空中では生まれない

AI アプリケーションは、正しく実装されていない場合、大きな波及効果をもたらす可能性があります。これは、単一の部門または IT チームが監視なしで AI 主導のプロセスの実験を開始した場合によく発生します。チームは、実験が失敗した場合に起こり得る倫理的な影響を認識していますか?展開は、会社の既存のデータ保持およびアクセス ポリシーに準拠していますか?監督なしでは、これらの質問に答えることは困難です。

また、ガバナンスがなければ、倫理違反が発生した場合にそれを是正するために必要な関係者を召集することがより困難になる可能性があります。監視はイノベーションの障壁としてではなく、むしろ AI が一定の倫理的境界内で動作することを保証するのに必要なチェックとして捉えられるべきです。最終的には、それらを所有する組織の最高データ責任者、または CDO の役割が存在しない場合は最高情報責任者が監督を行う必要があります。

2. 常に計画を立てる

AI プロジェクトの失敗に関する最悪の見出しには、多くの場合、共通点が 1 つあります。それは、問題が起こったときに、関係する企業が質問に答えたり、決定を説明したりする準備ができていなかったということです。監督によってこの問題は解決できます。組織の最高レベルで AI に関する理解と健全な理念があれば、問題に遭遇する可能性は低くなります。

3. デューデリジェンスとテストは必須です

AI バイアスの典型的な例の多くは、より多くの忍耐とテストによって軽減できます。手指消毒剤ディスペンサーの場合と同様に、企業が自社の新技術を披露することに熱心だったことが、結局は裏目に出てしまった。製品が一般公開される前に、さらにテストを行うことでこの偏りが明らかになる可能性があります。さらに、あらゆる AI アプリケーションは最初から厳密に精査される必要があります。 AI は複雑で潜在能力が不確実なため、戦略的かつ慎重に使用する必要があります。

4. AIによる監督を検討する

顧客のプライバシーを保護するために、金融機関は機密文書へのアクセスの管理に多大なリソースを投資しています。同社の記録チームは、資産を慎重に分類し、適切な職務と部門のみが各資産を参照できるようにインフラストラクチャを構築しています。この構造は、組織の AI ガバナンス機能を構築するためのテンプレートとして機能します。専任チームは、AI アプリケーションの潜在的なプラスまたはマイナスの影響を推定し、その結果をレビューする必要がある頻度とレビュー担当者を決定できます。

デジタルによる破壊的変化を求める企業にとって、人工知能の実験は重要な次のステップです。これにより、人間の労働者は日常的な作業から解放され、画像分析などの特定の活動を、これまでは経済的に賢明ではなかった方法で拡張できるようになります。しかし、これは軽視できるものではありません。 AI アプリケーションは、偏見、倫理的に疑問のある決定、ビジネス上の成果の低下を避けるために、適切な監視の下で慎重に開発する必要があります。組織内の AI の取り組みが適切にトレーニングされていることを確認します。最悪の道徳的欠陥は暗闇の中で起こることが多い。

<<:  Meituanが小サンプル学習リストFewCLUEで1位にランクイン!迅速な学習 + 自己トレーニングの実践

>>:  清華大学・黄敏烈氏:GoogleのAI人格は本当に目覚めたのか?

ブログ    
ブログ    

推薦する

最近では機械翻訳で文章から絵を想像できる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

負荷分散アルゴリズムを理解していますか?

[[286998]]負荷分散アルゴリズムには、ポーリング、ランダム、最小接続の 3 つがあります。...

2022 年の 5 つの主要な AI と機械学習のトレンド

[[414740]]人工知能と機械学習の分野では、企業が今から準備しておくべき大きなトレンドがいくつ...

LLM ウィザード、コードの事前トレーニングは魔法の杖です! UIUC中国チームがコードデータの3つの利点を明らかに

大規模モデルの時代における言語モデル (LLM) は、サイズが大きくなるだけでなく、トレーニング デ...

ルカン氏は、今後10年間の研究計画に関する62ページの論文を発表した。AI自律知能

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

TVMはモデルを高速化し、推論を最適化します

TVM は、あらゆる種類の CPU、GPU、その他の特殊なアクセラレータで動作するオープンソースのデ...

大学入試の願書記入や学校選びの際、人工知能を専攻するならこれらの学校を選ばなければなりません!

すでに非常に人気がある人工知能は、大学入試の願書が記入されるにつれて、間違いなく人気が続くでしょう。...

テラデータCTO バオ・リミン:分析エンジンを使用して機械学習とディープラーニングを実現する

[51CTO.comよりオリジナル記事] 近年、機械学習、ディープラーニング、ビッグデータ分析が話題...

人工知能

[[200702]] 250年以上にわたり、技術革新は経済発展の根本的な原動力となってきました。これ...

LeCunの新作、カード1枚でトレーニングできる!分散正規化、スパースエンコーダがクラッシュしなくなりました

最近、LeCun は、依然として崩壊問題と自己監督に関する新しい研究を発表しました。今回、彼は新しい...

...

Visual Mamba が登場: 2.8 倍高速、メモリが 87% 削減

「万能トランスフォーマー」として知られるマンバは、発売から2か月も経たないうちに高性能ビジュアルバー...

...

...

これはオートエンコーダーとRNNの両方である。DeepMindの科学者は拡散モデルを8つの観点から分析する。

最も人気のある AI ペイント ツールの 1 つである Stable Diffusion を試したこ...