AI のブラックボックスを開く: 「説明可能な」人工知能 (XAI) への認知ガイド!

AI のブラックボックスを開く: 「説明可能な」人工知能 (XAI) への認知ガイド!

今日、企業組織は意思決定に人工知能や機械学習モデルをますます頼りにしており、こうした意思決定は私たちの生活のあらゆる側面に影響を及ぼしていると言えます。たとえば、銀行は顧客に融資するかどうかや融資額を決定するために人工知能を使用しています。また、医療放射線科では健康な組織と腫瘍を区別するために人工知能を導入しています。さらに、人事チームは膨大な履歴書から適切な候補者をふるいにかけるために人工知能を使用しています。

[[424248]]

欧州連合は2019年に「人工知能の倫理ガイドライン」を発行し、人工知能の開発方向は「信頼できる」ものでなければならず、セキュリティ、プライバシー、透明性、説明可能性など、複数の側面を含む必要があると明確に述べました。しかし、人工知能技術が普及するにつれて、それがもたらすリスクも主に次の 2 つの側面で表面化してきました。

  • 信頼の危機、つまり、人工知能アルゴリズムの出力を信頼して頼ることができるかどうかという問題です。
  • 道徳的危機: ディープフェイク技術の出現は目新しい感覚をもたらす一方で、ディープラーニングや人工知能技術の悪用に対する懸念も生じています。

「ブラックボックス」AI

現在、多くの機械学習アプリケーションでは、その機能や背後にあるロジックを完全に理解することができず、「ブラック ボックス」と呼ばれる現象が発生しています。このため、今日のほとんどの機械学習モデルは「ブラック ボックス」です。

この特徴は、人工知能技術の応用における最大の問題の 1 つと考えられています。機械の決定が不透明になり、専門家や開発者自身にとっても理解が困難になることが多く、特定の分野における企業の機械学習と人工知能への信頼も低下します。

ブラックボックスAIとXAI

従来の「ブラックボックス」AI プログラムには、次のような問題があると言えます。

  • 出力が「正しい」ことを検証するのが難しい。
  • AI システムの「どこで」問題が発生したかを理解し、改善することが困難である。
  • クリエイターの偏見や不公平さを理解するのは難しい。

したがって、AI アルゴリズムの予測の背後にある理由を理解することが重要です。これにより、AI アルゴリズムに対する人々の信頼が高まるだけでなく、モデルに関する洞察が得られたり、開発されたアルゴリズムのデバッグ プロセスを実行したりすることもできます。

これらのアルゴリズムの背後にあるプロセスを理解することへの一般の関心が高まっている理由の 1 つは、さまざまな国際法 (EU GPDR など) の導入によりプライバシーに対する一般の感受性が高まり、プライバシー分野で高度な保護が課され、情報処理プロセスの透明性の向上が求められるようになったことです。これは、AI アルゴリズムが現在達成しようとしていることでもあります。

これらすべてが、AI アルゴリズムの透明性に対する需要の高まりにつながります。 AI のコンテキストにおける透明性の必要性により、機械学習モデルと AI アルゴリズムの透明なビジョンを理解して提示できる一連の技術を表す、いわゆる「説明可能な」AI (XAI) の開発がさらに促進されました。

「説明可能な」AIとは何でしょうか?

「説明可能な」AI は新しい研究分野ではありません。これは、80 年代から存在し、AI 設計の自然な帰結とも言える、複雑な AI システムをサポートする推論アーキテクチャです。

AI の将来は、人間が機械と連携して複雑な問題を解決できるかどうかにかかっているかもしれません。あらゆる効果的なコラボレーションと同様に、これには良好なコミュニケーション、信頼、理解が必要であり、説明可能な AI はこれらの課題に対処することを目指しています。

簡単に言えば、説明可能な AI とは、モデルが特定の決定を下す理由とそのモデルが機能する理由を人々がよりよく理解できるようにするために組織が使用する一連のツールとテクニックです。 XAI とは:

  • ベスト プラクティスのセット: データ サイエンティストが長年使用してきた最良の手順とルールの一部を活用して、モデルがどのようなデータでトレーニングされたか、モデルがどのようなバイアスの原因にさらされた可能性があるかを他の人が理解できるようにします。
  • 一連の設計原則: 研究者は、AI システムの構築を簡素化し、本質的に理解しやすいものにすることにますます関心を寄せています。
  • ツールのセット: システムがより理解しやすくなるにつれて、この知識をモデルに組み込むことで、またこの知識を他の人がモデルに組み込めるようにすることで、トレーニング済みのモデルをさらに改良することができます。

XAI が重要なのはなぜですか?

組織は、AI の意思決定プロセスを盲目的に信頼するのではなく、モデルの監視と AI の説明責任を通じて、AI の意思決定プロセスを完全に可視化することが重要です。説明可能な AI は、人間が機械学習 (ML) アルゴリズム、ディープラーニング、ニューラル ネットワークを理解し、解釈するのに役立ちます。

ML モデルは説明不可能なブラック ボックスであると考えられることが多く、ディープラーニングで使用されるニューラル ネットワークは人間にとって理解するのが最も困難であり、偏見 (多くの場合、人種、性別、年齢、または場所に基づく) は AI モデルのトレーニングにおける長年のリスクとなっています。さらに、本番データはトレーニング データと異なるため、AI モデルのパフォーマンスが影響を受けたり、低下したりする可能性があります。そのため、AI の説明可能性を高めるには、モデルを継続的に監視および管理することが重要になります。

説明可能な AI は、エンドユーザーの信頼、モデルの監査可能性、AI の効率的な使用を促進すると同時に、AI の使用に伴うコンプライアンス、法律、セキュリティ、評判のリスクを軽減します。さらに、説明可能な AI を使用すると、企業はモデルのパフォーマンスのトラブルシューティングと改善を行うと同時に、関係者が AI モデルの動作を理解できるように支援できます。

その利点は次のようにまとめられます。

  • モデルの透明性とトレーサビリティを向上させながら、モデル評価プロセスを簡素化します。
  • モデルを体系的に監視および管理してビジネス成果を最適化し、モデルのパフォーマンスを継続的に評価および改善します。
  • AI の結果までの時間を短縮します。
  • モデルガバナンスのリスクとコストを削減します。

説明可能な AI は、公平性、モデルの解釈可能性、説明責任を備えた「責任ある」 AI を実装するための重要な要件の 1 つです。責任ある AI 導入を実現するには、組織は信頼と透明性に基づいた AI システムを構築し、AI アプリケーションとプロセスに倫理原則を組み込む必要があります。

XAIの応用例

現在、説明可能な AI はさまざまな垂直市場でゲームを変えています。

  • ヘルスケア: 診断、画像分析、リソースの最適化を加速し、患者ケアの決定の透明性と追跡可能性を高め、医薬品の承認プロセスを合理化します。
  • 金融サービス: 透明性の高いローンおよび信用承認プロセスを通じて顧客体験を向上させ、信用リスク、資産管理、金融犯罪リスク評価を加速し、潜在的な苦情や問題の解決を迅速化し、価格設定、製品推奨、投資サービスに対する信頼を高めます。
  • 刑事司法: 予測とリスク評価プロセスの最適化。 DNA 分析、刑務所人口プロファイリング、詐欺検出、犯罪予測において説明可能な AI を使用して問題解決を加速します。トレーニング データとアルゴリズムの潜在的なバイアスを検出します。

説明可能な AI に関する 5 つの考慮事項:

  • 公平性と偏見防止: 公平性を管理および監視し、ユーザー展開をスキャンして潜在的な偏見を探します。
  • モデル偏差の緩和: モデルを分析し、最も論理的な結果に基づいて推奨事項を作成します。モデルが予想結果から逸脱した場合にアラートを送信します。
  • モデルリスク管理: モデルリスクを定量化し、軽減します。モデルのパフォーマンスが低い場合にアラートを送信します。偏見が続くと何が起こるかを理解する。
  • ライフサイクルの自動化: 統合データおよび AI サービスの一部としてモデルを構築、実行、管理します。ツールとプロセスを単一のプラットフォームに統合してモデルを監視し、結果を共有し、機械学習モデルの依存関係を説明します。
  • マルチクラウド対応: パブリック クラウド、プライベート クラウド、オンプレミスなどのハイブリッド クラウド全体に AI プロジェクトを展開します。説明可能な AI を通じて信頼と自信を促進します。

今日の時代、人々は説明可能な人工知能を緊急に必要としており、「責任ある」かつ「説明可能な」人工知能は、確かに双方の信頼を獲得し、将来のコンプライアンスのニーズを満たすための基礎となるでしょうが、この目標を達成することは間違いなく長く困難な道のりです。

[この記事は51CTOコラムニスト「牛安全」によるオリジナル記事です。転載する場合は牛安全(WeChatパブリックアカウントID:gooann-sectv)から許可を得てください]

この著者の他の記事を読むにはここをクリックしてください

<<:  USTCのニューラルネットワークとエンドツーエンドのトレーニングフレームワークは、教育環境が学生の能力に与える影響を調査する

>>:  インタビュアー: アルゴリズムについての理解について教えてください。応用シナリオ?

ブログ    
ブログ    
ブログ    

推薦する

...

インテルは新しい小さな「スピン量子ビット」チップをテスト中

最近、インテルの研究者らは、新しい小さな「スピン量子ビット」チップをテストしていることを明らかにした...

「機械」が他より賢く、「技術」が他より劣っているという観察と思考

[[277716]] 9月21日、CCTV-1の「スーパースマート」番組では、杭州の霊隠寺に毎日訪れ...

Java でアルゴリズムを実装する場合は、再帰に注意してください。

現象:再帰は、アルゴリズムの原理をうまく説明できる古典的なアルゴリズム実装です。再帰は、アルゴリズム...

2020 年のベスト AI ソフトウェア開発ツール

[[328252]] AI がソフトウェア エンジニアリングやテクノロジー企業に与える影響は否定でき...

...

Hongmengユニバーサルカードメモリフリップゲームの開発の詳細な説明

1. はじめにワイルド カード フリップ ゲームでは、合計 8 つのまったく異なる画像を持つ 16 ...

Java プログラミング スキル - データ構造とアルゴリズム「動的プログラミング アルゴリズム」

[[399211]]応用シナリオ - ナップサック問題バックパックの問題: 容量 4 ポンドのバッ...

何が足りないのでしょうか?現在の機械学習教育の欠点

[[347910]]ビッグデータダイジェスト制作出典: thegradient編集者: フィッシャー...

人工知能が地震監視を新たな時代へ導く

[[388691]]被害の程度を軽減することは地震研究者にとって重要な目標です。破壊的な地震が発生し...

...

自動運転テストシステムを1つの記事で理解する

[[433515]]自動運転のテストは非常に複雑なシステムです。この記事では、小さなものから大きなも...

Microsoft が Copilot の統合バージョンをリリース、Windows、Edge、その他のプラットフォームにも近日登場

マイクロソフトは米国現地時間9月22日木曜日、人工知能アシスタント「コパイロット」の最新バージョンを...

GoogleとOpenAIがマシンビジョンアルゴリズムをより良く研究するための新しいツールを開発

AIの世界はどのようなものになるのでしょうか?研究者たちは何十年もの間、これに困惑してきましたが、近...