専門家の見解:規制されていないAIは倫理的な偏見を生み出す可能性がある

専門家の見解:規制されていないAIは倫理的な偏見を生み出す可能性がある

透明性は、倫理的なビジネス上のジレンマにおいて重要な役割を果たすことがよくあります。情報が多いほど、何が許容できる結果で何が許容できない結果かを判断しやすくなります。財務が不一致の場合、会計上の誤りを犯したのは誰でしょうか?データが侵害された場合、それを保護する責任は誰にありますか? また、その責任は適切に果たされていますか?

しかし、バグや問題の明確な原因を探しても、誰も見つからない場合はどうなるでしょうか?ここで、AI は独特の倫理的考慮を生じさせます。

AI は組織において大きな可能性を示していますが、依然として問題解決のためのソリューションに過ぎません。これは誤解されている概念であり、企業内での実際の適用はまだ完全には実現されていません。多くの企業には、AI を真に革新的な方法で適用するための予算、人材、ビジョンが欠けているという事実と相まって、AI は依然として臨界質量に達するには程遠く、悪用される危険性があります。

しかし、AI が日常業務であまり目立たないからといって、組織内のどこかで役割を果たしていないということではありません。ビジネスにおける他の多くの倫理的ジレンマと同様に、AI における倫理的欠陥も影で起こることがよくあります。意図的かどうかに関わらず、AI プロジェクトやアプリケーションが倫理的な境界を破った場合、その結果は悪夢となる可能性があります。 AI における倫理的欠陥を回避する鍵は、プロジェクトに最初からコーポレートガバナンスを適用することです。

透明性と信頼性を備えたAIの構築

今では、AI がうまく機能しないというよくある例は誰もが知っています。肌の色が濃い客には正しく機能しない石鹸ディスペンサー、白人にはより正確なパルスオキシメーター、さらには犯罪者が刑務所に戻るかどうかを予測するアルゴリズムなどはすべて、(おそらく意図せずに)偏った AI の例です。

こうした状況は悪い見出しやソーシャルメディアでの反発を招くだけでなく、テクノロジーが不信感を持たれ続ける限り実現不可能となる、より正当な AI の使用事例を損なうことにもなります。たとえば、ヘルスケアの分野だけでも、AI はがんの診断を改善し、再入院のリスクが高い患者を特定して追加サポートを提供できる可能性があります。 AI への信頼を築くことを学ばなければ、これらの強力なソリューションのメリットを十分に享受することはできません。

AIについて同僚やビジネスリーダーと話すとき、私は最初からAIの仕事における透明性とガバナンスの考え方を支持してきました。具体的には、次のことをお勧めします。

1. 倫理的なAIは真空中では生まれない

AI アプリケーションは、正しく実装されていない場合、大きな波及効果をもたらす可能性があります。これは、単一の部門または IT チームが監視なしで AI 主導のプロセスの実験を開始した場合によく発生します。チームは、実験が失敗した場合に起こり得る倫理的な影響を認識していますか?展開は、会社の既存のデータ保持およびアクセス ポリシーに準拠していますか?監督なしでは、これらの質問に答えることは困難です。

また、ガバナンスがなければ、倫理違反が発生した場合にそれを是正するために必要な関係者を召集することがより困難になる可能性があります。監視はイノベーションの障壁としてではなく、むしろ AI が一定の倫理的境界内で動作することを保証するのに必要なチェックとして捉えられるべきです。最終的には、それらを所有する組織の最高データ責任者、または CDO の役割が存在しない場合は最高情報責任者が監督を行う必要があります。

2. 常に計画を立てる

AI プロジェクトの失敗に関する最悪の見出しには、多くの場合、共通点が 1 つあります。それは、問題が起こったときに、関係する企業が質問に答えたり、決定を説明したりする準備ができていなかったということです。監督によってこの問題は解決できます。組織の最高レベルで AI に関する理解と健全な理念があれば、問題に遭遇する可能性は低くなります。

3. デューデリジェンスとテストは必須です

AI バイアスの典型的な例の多くは、より多くの忍耐とテストによって軽減できます。手指消毒剤ディスペンサーの場合と同様に、企業が自社の新技術を披露することに熱心だったことが、結局は裏目に出てしまった。製品が一般公開される前に、さらにテストを行うことでこの偏りが明らかになる可能性があります。さらに、あらゆる AI アプリケーションは最初から厳密に精査される必要があります。 AI は複雑で潜在能力が不確実なため、戦略的かつ慎重に使用する必要があります。

4. AIによる監督を検討する

顧客のプライバシーを保護するために、金融機関は機密文書へのアクセスの管理に多大なリソースを投資しています。同社の記録チームは、資産を慎重に分類し、適切な職務と部門のみが各資産を参照できるようにインフラストラクチャを構築しています。この構造は、組織の AI ガバナンス機能を構築するためのテンプレートとして機能します。専任チームは、AI アプリケーションの潜在的なプラスまたはマイナスの影響を推定し、その結果をレビューする必要がある頻度とレビュー担当者を決定できます。

デジタルによる破壊的変化を求める企業にとって、人工知能の実験は重要な次のステップです。これにより、人間の労働者は日常的な作業から解放され、画像分析などの特定の活動を、これまでは経済的に賢明ではなかった方法で拡張できるようになります。しかし、これは軽視できるものではありません。 AI アプリケーションは、偏見、倫理的に疑問のある決定、ビジネス上の成果の低下を避けるために、適切な監視の下で慎重に開発する必要があります。組織内の AI の取り組みが適切にトレーニングされていることを確認します。最悪の道徳的欠陥は暗闇の中で起こることが多い。

<<:  Meituanが小サンプル学習リストFewCLUEで1位にランクイン!迅速な学習 + 自己トレーニングの実践

>>:  清華大学・黄敏烈氏:GoogleのAI人格は本当に目覚めたのか?

ブログ    
ブログ    

推薦する

...

Googleは視覚障害者の走行を支援するAIシステムをテストしている

[[353439]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

ガートナーレポート: 世界のカスタマーサービスセンターが会話型 AI を導入、今年の支出は 16.2% 増加

8月1日、市場調査会社ガートナーが発表した最新のレポートによると、世界中のカスタマーサービスセンター...

2021年10月のドローン業界の最新動向を3分で振り返る

現在、人工知能や5Gなどの技術の助けを借りて、我が国のドローン開発は急速な成長の軌道に乗っています。...

...

...

テキストからキーワードを抽出するにはどうすればいいですか? Daguan Dataが使用する3つのアルゴリズムから始めましょう

導入自然言語処理の分野では、膨大なテキストファイルを処理する上で、ユーザーが最も関心を持っている問題...

...

...

...

IBMは顔認識技術の開発を中止し、議会に書簡を送った。

IBMは、顔認識技術の影響に対する人々の懸念が高まる中、今後は顔認識関連の技術や機能を開発しないこ...

ニューラルネットワークはとてもシンプルです。機械学習の入門書をご紹介します | 役立つ情報

[[331060]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

チャットボットのテスト: フレームワーク、ツール、テクニックの詳細

【51CTO.com クイック翻訳】 [[425095]]ビジネス マーケティングの原動力と、顧客体...

米メディア:なぜソフトロボットは科学者を魅了するのか?

[[374766]]米フォーチュン誌のウェブサイトは1月1日、「なぜ『ソフトロボット』はNASAや...

AI インデックス: AI 関連の求人、データ、トレンド

AI Index は、人工知能の現状に関する詳細な年次レポートです。自律システム、研究開発、AI の...