今日、企業組織は意思決定に人工知能や機械学習モデルをますます頼りにしており、こうした意思決定は私たちの生活のあらゆる側面に影響を及ぼしていると言えます。たとえば、銀行は顧客に融資するかどうかや融資額を決定するために人工知能を使用しています。また、医療放射線科では健康な組織と腫瘍を区別するために人工知能を導入しています。さらに、人事チームは膨大な履歴書から適切な候補者をふるいにかけるために人工知能を使用しています。
欧州連合は2019年に「人工知能の倫理ガイドライン」を発行し、人工知能の開発方向は「信頼できる」ものでなければならず、セキュリティ、プライバシー、透明性、説明可能性など、複数の側面を含む必要があると明確に述べました。しかし、人工知能技術が普及するにつれて、それがもたらすリスクも主に次の 2 つの側面で表面化してきました。
「ブラックボックス」AI現在、多くの機械学習アプリケーションでは、その機能や背後にあるロジックを完全に理解することができず、「ブラック ボックス」と呼ばれる現象が発生しています。このため、今日のほとんどの機械学習モデルは「ブラック ボックス」です。 この特徴は、人工知能技術の応用における最大の問題の 1 つと考えられています。機械の決定が不透明になり、専門家や開発者自身にとっても理解が困難になることが多く、特定の分野における企業の機械学習と人工知能への信頼も低下します。 ブラックボックスAIとXAI 従来の「ブラックボックス」AI プログラムには、次のような問題があると言えます。
したがって、AI アルゴリズムの予測の背後にある理由を理解することが重要です。これにより、AI アルゴリズムに対する人々の信頼が高まるだけでなく、モデルに関する洞察が得られたり、開発されたアルゴリズムのデバッグ プロセスを実行したりすることもできます。 これらのアルゴリズムの背後にあるプロセスを理解することへの一般の関心が高まっている理由の 1 つは、さまざまな国際法 (EU GPDR など) の導入によりプライバシーに対する一般の感受性が高まり、プライバシー分野で高度な保護が課され、情報処理プロセスの透明性の向上が求められるようになったことです。これは、AI アルゴリズムが現在達成しようとしていることでもあります。 これらすべてが、AI アルゴリズムの透明性に対する需要の高まりにつながります。 AI のコンテキストにおける透明性の必要性により、機械学習モデルと AI アルゴリズムの透明なビジョンを理解して提示できる一連の技術を表す、いわゆる「説明可能な」AI (XAI) の開発がさらに促進されました。 「説明可能な」AIとは何でしょうか?「説明可能な」AI は新しい研究分野ではありません。これは、80 年代から存在し、AI 設計の自然な帰結とも言える、複雑な AI システムをサポートする推論アーキテクチャです。 AI の将来は、人間が機械と連携して複雑な問題を解決できるかどうかにかかっているかもしれません。あらゆる効果的なコラボレーションと同様に、これには良好なコミュニケーション、信頼、理解が必要であり、説明可能な AI はこれらの課題に対処することを目指しています。 簡単に言えば、説明可能な AI とは、モデルが特定の決定を下す理由とそのモデルが機能する理由を人々がよりよく理解できるようにするために組織が使用する一連のツールとテクニックです。 XAI とは:
XAI が重要なのはなぜですか?組織は、AI の意思決定プロセスを盲目的に信頼するのではなく、モデルの監視と AI の説明責任を通じて、AI の意思決定プロセスを完全に可視化することが重要です。説明可能な AI は、人間が機械学習 (ML) アルゴリズム、ディープラーニング、ニューラル ネットワークを理解し、解釈するのに役立ちます。 ML モデルは説明不可能なブラック ボックスであると考えられることが多く、ディープラーニングで使用されるニューラル ネットワークは人間にとって理解するのが最も困難であり、偏見 (多くの場合、人種、性別、年齢、または場所に基づく) は AI モデルのトレーニングにおける長年のリスクとなっています。さらに、本番データはトレーニング データと異なるため、AI モデルのパフォーマンスが影響を受けたり、低下したりする可能性があります。そのため、AI の説明可能性を高めるには、モデルを継続的に監視および管理することが重要になります。 説明可能な AI は、エンドユーザーの信頼、モデルの監査可能性、AI の効率的な使用を促進すると同時に、AI の使用に伴うコンプライアンス、法律、セキュリティ、評判のリスクを軽減します。さらに、説明可能な AI を使用すると、企業はモデルのパフォーマンスのトラブルシューティングと改善を行うと同時に、関係者が AI モデルの動作を理解できるように支援できます。 その利点は次のようにまとめられます。
説明可能な AI は、公平性、モデルの解釈可能性、説明責任を備えた「責任ある」 AI を実装するための重要な要件の 1 つです。責任ある AI 導入を実現するには、組織は信頼と透明性に基づいた AI システムを構築し、AI アプリケーションとプロセスに倫理原則を組み込む必要があります。 XAIの応用例現在、説明可能な AI はさまざまな垂直市場でゲームを変えています。
説明可能な AI に関する 5 つの考慮事項:
今日の時代、人々は説明可能な人工知能を緊急に必要としており、「責任ある」かつ「説明可能な」人工知能は、確かに双方の信頼を獲得し、将来のコンプライアンスのニーズを満たすための基礎となるでしょうが、この目標を達成することは間違いなく長く困難な道のりです。 [この記事は51CTOコラムニスト「牛安全」によるオリジナル記事です。転載する場合は牛安全(WeChatパブリックアカウントID:gooann-sectv)から許可を得てください] この著者の他の記事を読むにはここをクリックしてください |
<<: USTCのニューラルネットワークとエンドツーエンドのトレーニングフレームワークは、教育環境が学生の能力に与える影響を調査する
>>: インタビュアー: アルゴリズムについての理解について教えてください。応用シナリオ?
最近、インテルの研究者らは、新しい小さな「スピン量子ビット」チップをテストしていることを明らかにした...
[[277716]] 9月21日、CCTV-1の「スーパースマート」番組では、杭州の霊隠寺に毎日訪れ...
現象:再帰は、アルゴリズムの原理をうまく説明できる古典的なアルゴリズム実装です。再帰は、アルゴリズム...
[[328252]] AI がソフトウェア エンジニアリングやテクノロジー企業に与える影響は否定でき...
1. はじめにワイルド カード フリップ ゲームでは、合計 8 つのまったく異なる画像を持つ 16 ...
[[399211]]応用シナリオ - ナップサック問題バックパックの問題: 容量 4 ポンドのバッ...
5月19日北京時間午後11時、マイクロソフトの年次「Build Developer Conferen...
[[347910]]ビッグデータダイジェスト制作出典: thegradient編集者: フィッシャー...
[[388691]]被害の程度を軽減することは地震研究者にとって重要な目標です。破壊的な地震が発生し...
[[433515]]自動運転のテストは非常に複雑なシステムです。この記事では、小さなものから大きなも...
マイクロソフトは米国現地時間9月22日木曜日、人工知能アシスタント「コパイロット」の最新バージョンを...
AIの世界はどのようなものになるのでしょうか?研究者たちは何十年もの間、これに困惑してきましたが、近...