人工知能は近年急速に発展し、さまざまな業界の無数のユースケースで強力なイノベーションツールとして広く使用されています。しかし、大きな責任には大きな能力が求められることがよくあります。 AI と機械学習のおかげで、不正防止技術はかつてないほど正確になり、急速に発展しています。リアルタイム スコアリング テクノロジーにより、ビジネス リーダーは不正行為を即座に特定できるようになります。しかし、AI-ML 主導の意思決定の使用は、透明性に関する懸念も引き起こします。さらに、ML モデルが重要な環境で使用される場合、説明可能性の必要性が生じます。 機械によって行われる重要な意思決定の数が増え続けるにつれて、説明可能性と理解可能性がますます重要になります。テクノロジー研究者のティム・ミラー氏によると、「理解可能性とは、人間が意思決定の理由を理解できる度合いのことです。」したがって、信頼できる自動化ソリューションの開発を促進するには、ML モデルの解釈可能性を開発することが重要です。 開発者、消費者、リーダーは、不正防止の意思決定の意味とプロセスを理解する必要があります。しかし、少しだけパラメータが多い ML モデルは、ほとんどの人にとって理解するのが困難です。しかし、説明可能な AI 研究コミュニティは、理解可能性ツールの開発により、ブラックボックス モデルはもはやブラックボックスではないと繰り返し述べています。これらのツールの助けを借りて、ユーザーは重要な意思決定に使用する ML モデルを理解し、より信頼できるようになります。 SHAP オブ シングスSHAP (SHapley Additive exPlanations) は、今日最も一般的に使用されているモデルに依存しない説明ツールの 1 つです。協力ゲームから Sharply 値を計算し、機能の影響を均等に共有します。表形式のデータに取り組んで不正行為と戦うためにアンサンブル法を使用する場合、SHAP の TreeExplainer アルゴリズムは、多項式時間でローカルな説明を取得する機会を提供します。このツールでは近似値のみが可能です。これは、ニューラル ネットワーク ベースの説明に比べて大きな進歩です。 ホワイト ボックスは通常、不正行為の重大度スコアを計算するルール エンジンを指します。本質的には、ブラック ボックス メソッドとホワイト ボックス メソッドは異なる結果を生成します。ブラック ボックス メソッドは、機械がデータから学習した内容に基づいて結果を生成するのに対し、ホワイト ボックス メソッドは、事前に定義されたルールに基づいてスコアを生成するためです。これらの違いに基づいて、両方向に発展することができます。たとえば、ブラックボックス モデルによって発見された不正ループに基づいてルールを調整するなどです。 ブラック ボックス テストと SHAP を組み合わせることで、モデルの全体的な動作を理解し、不正行為を検出するためのモデルの主な特徴を明らかにすることができます。同時に、モデル内の望ましくないバイアスも明らかになる可能性があります。たとえば、モデルは特定の人口統計を差別する可能性があります。グローバルモデルの解釈を通じてこのような状況を検出し、不正確な予測を防ぐことができます。 さらに、モデルによって行われた個々の予測を理解するのにも役立ちます。 ML モデルのデバッグ プロセス中に、データ サイエンティストは各予測を個別に観察し、それに応じて解釈できます。その機能の貢献により、モデルが何をしているかを把握することができ、これらの入力からさらに開発を進めることができます。 SHAP を活用することで、エンド ユーザーはモデルの重要な機能を取得できるだけでなく、各機能がモデル出力の不正確率にどのように (どの方向に) 影響するかを理解することもできます。 信頼係数最後に、SHAP の助けを借りて、成功したモデルに対する信頼を獲得することで、顧客からの信頼を得ることができます。一般的に言えば、製品がどのように機能するかを理解すれば、その製品に対してより自信を持つことができます。人々は理解できないものを嫌います。解釈ツールの助けを借りて、ブラックボックスを調べ、よりよく理解し、信頼できるようになります。さらに、モデルを理解することで、継続的に改善することができます。 Explainable Booster (EBM) は、ML モデルに SHAP 勾配ブースティングを使用する代わりに使用できます。これはInterpretML(マイクロソフトの人工知能企業)の主力製品であり、いわゆるガラスの箱です。 Glass Box という名前は、その構造上、その性質が解釈の余地があるという事実に由来しています。元のドキュメントによると、「EBM は、最先端のブラック ボックス モデルと同等の精度を持ちながら、完全に解釈可能なままです。EBM は他の最新のアルゴリズムよりもトレーニングに時間がかかりますが、非常にコンパクトで予測が高速です。」とあります。Locally Interpretable Models — Model Agnostic Explanations (LIME) も、ブラック ボックスの説明に使用できる優れたツールです。ただし、非構造化データ モデルではより一般的です。 上記のツールと透明なデータ ポイントを活用することで、組織は自信を持って意思決定を行うことができます。最良の結果を生み出すには、すべての関係者がツールがどのように機能するかを理解する必要がありま す。ブラックボックス ML とそれに伴うさまざまな手法を理解することで、組織は結果に至った経緯をより深く理解し、ビジネス目標の達成に貢献できます。 レビュー人間にとって、未知のものは恐ろしく、信頼できないものであることが多いです。 AI-ML の意思決定を推進するアルゴリズム モデルは「ブラック ボックス」のようなものです。その構造は理解できますが、動作原理を理解することはできず、得られる結果の信頼性を判断することもできません。特に、不正防止などの高リスク環境では、AI および ML テクノロジの適用がより困難になります。説明可能なツールの導入により、「ブラックボックス」は徐々に透明化され、ユーザーの疑問や懸念が大幅に払拭され、「ブラックボックス」自体の発展の条件も整いました。 |
<<: クラウド コンピューティングにおいて人工知能はどのような役割を果たすのでしょうか?
ビッグデータダイジェスト制作著者: カレブトンガ火山の噴火により、洪水や地震などの自然災害に見舞われ...
先週、シリコンバレーのスタートアップオタクや研究者が更新するポッドキャスト「Latent Space...
AlphaGo から Master まで、人工知能 (AI) は再びテクノロジー界の最前線に押し上...
2月4日の北京冬季オリンピックの開会式で、若い俳優たちが「平和の鳩」を手に持ち、彼らが動くと、足元に...
[51CTO.comより] 徐克氏は百度で検索とスマートレコメンデーションの分野で長年勤務。2015...
DeepMind の AI エージェントが再び自らの力を発揮します。よく見てください。BBF という...
最新の KDnuggets 調査では、データ サイエンティストの実際の業務で最もよく使用されるアルゴ...
[[210219]] 2017 年には、モバイル アプリケーション向けのディープラーニングにおいて大...
デジタル化が進むにつれ、人工知能は不動産経済の成長を促進する上で重要な役割を果たします。有名なソフト...
データ サイエンスは幅広い分野であるため、まずはあらゆるビジネスで遭遇する可能性のあるデータ サイエ...
2021年、情熱的な若者のグループが、AI4Science(AI for Science)を機械学習...