説明可能な不正防止AIについてお話しましょう

説明可能な不正防止AIについてお話しましょう

人工知能は近年急速に発展し、さまざまな業界の無数のユースケースで強力なイノベーションツールとして広く使用されています。しかし、大きな責任には大きな能力が求められることがよくあります。 AI と機械学習のおかげで、不正防止技術はかつてないほど正確になり、急速に発展しています。リアルタイム スコアリング テクノロジーにより、ビジネス リーダーは不正行為を即座に特定できるようになります。しかし、AI-ML 主導の意思決定の使用は、透明性に関する懸念も引き起こします。さらに、ML モデルが重要な環境で使用される場合、説明可能性の必要性が生じます。

機械によって行われる重要な意思決定の数が増え続けるにつれて、説明可能性と理解可能性がますます重要になります。テクノロジー研究者のティム・ミラー氏によると、「理解可能性とは、人間が意思決定の理由を理解できる度合いのことです。」したがって、信頼できる自動化ソリューションの開発を促進するには、ML モデルの解釈可能性を開発することが重要です。

開発者、消費者、リーダーは、不正防止の意思決定の意味とプロセスを理解する必要があります。しかし、少しだけパラメータが多い ML モデルは、ほとんどの人にとって理解するのが困難です。しかし、説明可能な AI 研究コミュニティは、理解可能性ツールの開発により、ブラックボックス モデルはもはやブラックボックスではないと繰り返し述べています。これらのツールの助けを借りて、ユーザーは重要な意思決定に使用する ML モデルを理解し、より信頼できるようになります。

SHAP オブ シングス

SHAP (SHapley Additive exPlanations) は、今日最も一般的に使用されているモデルに依存しない説明ツールの 1 つです。協力ゲームから Sharply 値を計算し、機能の影響を均等に共有します。表形式のデータに取り組んで不正行為と戦うためにアンサンブル法を使用する場合、SHAP の TreeExplainer アルゴリズムは、多項式時間でローカルな説明を取得する機会を提供します。このツールでは近似値のみが可能です。これは、ニューラル ネットワーク ベースの説明に比べて大きな進歩です。

ホワイト ボックスは通常、不正行為の重大度スコアを計算するルール エンジンを指します。本質的には、ブラック ボックス メソッドとホワイト ボックス メソッドは異なる結果を生成します。ブラック ボックス メソッドは、機械がデータから学習した内容に基づいて結果を生成するのに対し、ホワイト ボックス メソッドは、事前に定義されたルールに基づいてスコアを生成するためです。これらの違いに基づいて、両方向に発展することができます。たとえば、ブラックボックス モデルによって発見された不正ループに基づいてルールを調整するなどです。

ブラック ボックス テストと SHAP を組み合わせることで、モデルの全体的な動作を理解し、不正行為を検出するためのモデルの主な特徴を明らかにすることができます。同時に、モデル内の望ましくないバイアスも明らかになる可能性があります。たとえば、モデルは特定の人口統計を差別する可能性があります。グローバルモデルの解釈を通じてこのような状況を検出し、不正確な予測を防ぐことができます。

さらに、モデルによって行われた個々の予測を理解するのにも役立ちます。 ML モデルのデバッグ プロセス中に、データ サイエンティストは各予測を個別に観察し、それに応じて解釈できます。その機能の貢献により、モデルが何をしているかを把握することができ、これらの入力からさらに開発を進めることができます。 SHAP を活用することで、エンド ユーザーはモデルの重要な機能を取得できるだけでなく、各機能がモデル出力の不正確率にどのように (どの方向に) 影響するかを理解することもできます。

信頼係数

最後に、SHAP の助けを借りて、成功したモデルに対する信頼を獲得することで、顧客からの信頼を得ることができます。一般的に言えば、製品がどのように機能するかを理解すれば、その製品に対してより自信を持つことができます。人々は理解できないものを嫌います。解釈ツールの助けを借りて、ブラックボックスを調べ、よりよく理解し、信頼できるようになります。さらに、モデルを理解することで、継続的に改善することができます。

Explainable Booster (EBM) は、ML モデルに SHAP 勾配ブースティングを使用する代わりに使用できます。これはInterpretML(マイクロソフトの人工知能企業)の主力製品であり、いわゆるガラスの箱です。 Glass Box という名前は、その構造上、その性質が解釈の余地があるという事実に由来しています。元のドキュメントによると、「EBM は、最先端のブラック ボックス モデルと同等の精度を持ちながら、完全に解釈可能なままです。EBM は他の最新のアルゴリズムよりもトレーニングに時間がかかりますが、非常にコンパクトで予測が高速です。」とあります。Locally Interpretable Models — Model Agnostic Explanations (LIME) も、ブラック ボックスの説明に使用できる優れたツールです。ただし、非構造化データ モデルではより一般的です。

上記のツールと透明なデータ ポイントを活用することで、組織は自信を持って意思決定を行うことができます。最良の結果を生み出すには、すべての関係者がツールがどのように機能するかを理解する必要がありま す。ブラックボックス ML とそれに伴うさまざまな手法を理解することで、組織は結果に至った経緯をより深く理解し、ビジネス目標の達成に貢献できます。

レビュー

人間にとって、未知のものは恐ろしく、信頼できないものであることが多いです。 AI-ML の意思決定を推進するアルゴリズム モデルは「ブラック ボックス」のようなものです。その構造は理解できますが、動作原理を理解することはできず、得られる結果の信頼性を判断することもできません。特に、不正防止などの高リスク環境では、AI および ML テクノロジの適用がより困難になります。説明可能なツールの導入により、「ブラックボックス」は徐々に透明化され、ユーザーの疑問や懸念が大幅に払拭され、「ブラックボックス」自体の発展の条件も整いました。

<<:  クラウド コンピューティングにおいて人工知能はどのような役割を果たすのでしょうか?

>>:  機械学習: Python による分類

ブログ    
ブログ    
ブログ    

推薦する

...

...

復旦NLPチームが大規模モデルエージェントの80ページのレビューを公開、AIエージェントの現状と将来を概観

最近、復旦大学の自然言語処理チーム (FudanNLP) が LLM ベースのエージェントに関するレ...

プログラミング能力はGPT-4を超え、アルパカコード版「スーパーカップ」が登場、ザッカーバーグ氏も自らLlama3をネタバレ

アルパカファミリーの「最強のオープンソースコードモデル」が「スーパーカップ」を発売しました——今朝、...

IoT人工知能の将来動向

AI と IoT の融合は拡大し続けており、刺激的な将来のトレンドと機会への道を切り開いています。 ...

2018 年の 5 つの主要な AI トレンドとそのメリット

[[234392]] [51CTO.com クイック翻訳] 人間は常に、自分たちに似たロボットや人工...

...

...

...

モノのインターネットにおける人工知能の主要技術と手法

人工知能は、IoT の機能を実現する上で重要な役割を果たします。 AI と IoT の融合を推進し、...

AIは旅行業界の困難を軽減できるか?

[[323317]]現時点では、多くの企業が、数か月前に考えていたよりも見通しが不透明であると感じ...

...

...

地図やGPSは信頼できないが、それは問題ではない:カリフォルニア大学バークレー校のロボットが未知の環境で3キロメートル以上を移動

ほとんどのロボットの移動方法は、ほとんどの人間の移動方法とは大きく異なります。ロボットは、環境を包括...

スタンフォード大学の美容博士の起業プロジェクトは大成功! AIビデオ生成がトップストリーマーとしてデビュー

スタンフォード大学の中国人博士が休学して起業したところ、AI界でたちまち人気に!この新製品はAIによ...