人工知能を人間化して、その信頼性を確立するにはどうすればよいでしょうか?

人工知能を人間化して、その信頼性を確立するにはどうすればよいでしょうか?

人工知能 (AI) はブラックボックスの実践と見なされることが多く、テクノロジー自体の仕組みではなく、一見正しい結果を提供する能力のみに注目が集まります。ほとんどの場合、私たちは結果を達成するための具体的な方法よりも結果そのものに関心があるので、この効果は十分な場合もあります。

[[346007]]

残念ながら、AI をブラックボックスのプロセスと見なすと、信頼性と信頼性に疑問が生じます。純粋に技術的な観点から見ると、これにより AI モデルの問題を分析したり解決したりすることが困難になります。

この記事では、これらの潜在的な問題のいくつかと解決策のアイデアをいくつか見ていきます。

AIとは何ですか?

多くの企業がすでに自社製品に人工知能(AI)の要素を取り入れています。一部の「AI」の主張は単なる偽のマーケティング戦術ですが、実際に、AI と機械学習 (ML) 技術を使用して機能を向上させ始めている製品が数多くあります。

つまり、AI とは、知的な動作を示すことができるあらゆるコンピュータ システムを指します。この記事の文脈では、知能とは、概念を学習、理解、要約するコンピュータの能力の飛躍的進歩を表します。

現在、AI テクノロジーの最も一般的な実装は機械学習であり、コンピューター アルゴリズムがデータ内のパターンを学習して認識します。機械学習は、大きく分けて 3 つのカテゴリに分けられます。

  • 教師あり学習: 既知のデータを使用してモデルをトレーニングします。これは、子供たちに最も単純な絵ベースの識字教育教材を見せるようなものです。このタイプの ML も最も一般的な実装形式ですが、致命的な欠陥があります。信頼性が高く、正しくラベル付けされた大量のトレーニング データがなければ、適切なモデルを確立できないのです。
  • 教師なし学習: モデルが独自にデータ内のパターンを見つけます。モバイル ナビゲーション ソフトウェアはこの学習方法を使用しており、データについて何も知らない状況に特に適しています。現在、業界では、実用的な意義を持つ可能性のあるデータから重要なクラスターを識別するために、教師なし学習がよく使用されています。
  • 強化学習: モデルが正しく実行されるたびに報酬が与えられます。これは典型的な「試行錯誤」の学習方法だからです。この ML アプローチは、最初に少量のデータしかない場合に特に強力です。その出現により、継続的な学習モデルが直接可能になります。つまり、モデルは新しいデータにさらされた後も適応および開発を続け、決して時代遅れにならないようになります。

しかし、これらの方法はすべて同じ問題に直面しています。それは、学習後に生成された最終モデルを理解できないということです。つまり、AI は人間化できないのです。

信頼の問題

ブラックボックス AI システムのほとんどは、機械が自己学習プロセスを通じてモデルを構築するシステムです。しかし、システムが結論に至ったプロセスを理解しなければ、モデルが特定の結論に至った理由を理解したり、その結論に自信が持てなかったりすることは困難です。モデルがなぜそのような判断を下すのかを尋ねることはできません。結果を私たちの予想と比較することしかできません。

AI モデルがどのように機能するかを理解していないと、そのモデルが常に正しいとどうして信じることができるでしょうか?

その結果、この不可解さは数え切れないほどのディストピア SF 作品に反映され、AI は恐怖や謎の代名詞となっています。さらに悪いことに、多くの AI モデルは深刻な偏見を示しており、信頼の危機をさらに悪化させています。

偏見や先入観は常に人間の思考や意識に根ざしており、今やAI技術でも避けられない大きな問題となっている。システムは過去の経験からしか学習できないため、モデルが将来に向けて正しい選択を行えるように導くには不十分な可能性があります。

犯罪予測における AI モデルの応用を例に挙げてみましょう。これらのモデルは過去の犯罪統計を使用して、どの地域の犯罪率が高いかを判断します。法執行機関はこれらの地域に警察資源を集中させるために巡回ルートを調整した。しかし、この種のデータを使用すること自体が偏見を強めたり、相関関係と因果関係を混同する可能性があるという疑念が広くあります。

たとえば、COVID-19パンデミックが猛威を振るうと、米国全土の主要都市では暴力犯罪率が大幅に低下し始めましたが、一部の管轄区域では自動車窃盗やその他の強盗が増加しました。一般の人はこれらの変化を全国的な社会的距離の確保と合理的に関連付けるかもしれないが、予測的な警察モデルは犯罪率や逮捕率の減少を安定性と安全性の向上と誤って解釈する可能性がある。

現在、AI にはさまざまな形のバイアスが存在します。顔認識ソフトウェアを例にとると、「人口統計的偏り」を含むアルゴリズムは、対象者の年齢、性別、人種に応じて、極めて変動の大きい精度で判断を下す可能性があることが研究で示されている。

データ サイエンティストが特徴エンジニアリングを実行してソース データをクリーンアップしようとすると、バイアス/バイアスの問題も発生し、微妙ではあるが非常に重要な特徴が誤って失われることがあります。

最も影響力のある偏見は、社会レベルでも問題を引き起こす可能性があります。たとえば、広告アルゴリズムは人口統計データに基づいて広告を定期的に配信し、年齢、性別、人種、宗教、社会経済などの要素に基づく偏見をモデルに永続化します。 AI技術は、採用アプリケーションにおける同様の欠陥も明らかにしました。

もちろん、これらすべては人間自身が引き起こした原始的な偏見から生じています。しかし、AI モデル内のこれらのバイアスをどのように検出し、除去するのでしょうか?

説明可能なAI

AI システムへの信頼を高めるために、AI 研究者は AI ソリューションを人間化することを目指して、説明可能な AI (XAI) を構築する可能性を模索しています。

XAI は、ブラック ボックス モデルでは識別が難しい多くの問題を回避できます。たとえば、2017 年に研究者は AI の不正行為の問題を発見したと報告しました。トレーニング後、AI モデルは馬の画像を正常に識別できるようになりました。これは、従来の犬/猫の認識能力のバリエーションに相当します。しかし、AIが実際に学習したのは、馬の写真に関連付けられた特定の著作権注釈を認識することだったことが判明しました。

XAI を実装するには、モデル内の操作プロセス全体を観察して理解する必要があります。この探究自体はすでに理論計算機科学の主要な分野を構成しており、その難しさは誰もが想像する以上に大きいかもしれません。

より単純な機械学習アルゴリズムは、もちろん比較的簡単に説明できますが、ニューラル ネットワークははるかに複雑です。階層化関連性伝播 (LRP) などの最新の技術でも、意思決定にとってどの入力がより重要であるかを示すことしかできません。そのため、研究者たちは、モデルによって行われた特定の予測を説明できることを期待して、局所的な解釈可能性の目標に注目し始めました。

AI モデルを理解するのはなぜ難しいのでしょうか?

現在、ほとんどの ML モデルは人工ニューロンに基づいています。人工ニューロン、またはパーセプトロンは、伝達関数を使用して 1 つ以上の重み付けされた入力を結合します。これに基づいて、アクティベーション関数はしきい値を使用して発火するかどうかを決定します。このアプローチは、実際には人間の脳内のニューロンの働きを制限します。

一般的な ML モデルとして、ニューラル ネットワークは複数層の人工ニューロンで構成されます。入力層には重要な特徴と同じ数の入力があり、多数の隠し層が追加されています。最後に、出力層にも重要な特徴の数と同じ数の出力が存在します。

最も単純なアプリケーション シナリオを例に、曜日と休日に基づいて ML モデルが起床時刻を予測する方法を考えてみましょう。

ランダムな重みを使用すると、モデルは水曜日の午前 9 時に起きる必要があるという誤った結果を生成します。

もちろん、各人工ニューロンの正確な重みを手動で設定することは不可能です。代わりに、バックプロパゲーションと呼ばれるプロセスを使用する必要があります。このプロセスでは、アルゴリズムがモデルを逆方向​​に処理してネットワークの重みとバイアスを調整し、予測出力と期待出力の差を最小限に抑えます。調整後の結果は、水曜日の朝7時に起きるべきだということになります。

信頼と倫理

AI を使ってがんを診断したり、群衆の中から指名手配犯を特定したり、雇用や解雇の決定を下したりしようとする中で、テクノロジーに対する信頼の問題はますます重要になっています。 AI が人間化できないのであれば、人々に AI を信頼してもらうにはどうしたらよいでしょうか。そのような信頼がなければ、AI を倫理的に使用することはさらに不可能です。

この重要な問題に関して、EU は信頼できる AI に関する倫理ガイドラインを採択し、AI が倫理的で信頼できるかどうかを判断するための 7 つのテストを設定しました。

  • 人間の行為と監視: 人間が最終決定権を持たないと、AI システムは決定を下すことができません。
  • テクノロジーの堅牢性とセキュリティ: AI テクノロジーを使用する前に、障害保護機能があり、ハッキングされないことなど、そのテクノロジーが信頼できるかどうかを明確にする必要があります。
  • プライバシーとデータ ガバナンス: AI モデルでは、医療用画像による病気の診断など、個人データを処理する必要があることがよくあります。つまり、データのプライバシーが非常に重要になります。
  • 透明性: AI モデルは、人間が説明できるという基本的な特性を持つ必要があります。
  • 多様性、差別の禁止、公平性: 主に、先ほど説明した偏見の問題に関係します。
  • 環境と社会の幸福: ここで、標準設定者は、AI 技術の発展がディストピア的な未来につながる可能性があるという懸念を和らげたいと考えています。
  • 説明責任: 独立した監督または監視システムを確立する必要があります。

もちろん、ガイドラインでは、AI技術は合法的な方法で使用されなければならないことも強調されています。

AIの人間化

この記事は、人工知能を人間化して、その信頼性を真に確立するにはどうすればよいかという 1 つの点にのみ焦点を当てています。

人間が理解できない機械を信頼するのは難しく、結局この革新的な技術から真の恩恵を受けることができなくなります。

この問題は、ソフトウェア テスト自動化の分野で特に顕著です。このようなシステムの目的は、アプリケーション ソリューションをリリースする前に潜在的な問題を見つけることだからです。具体的なプロセスを理解していなければ、テスト結果が正しいことをどうやって確認できるでしょうか。間違った決定が下されたらどうなるでしょうか。AI システムが何かを見逃した場合、どうやってそれを検出したり対応したりできるでしょうか。

この問題を解決するには、ML アルゴリズムとテスト システムを組み合わせて、意思決定と対応するデータの関係を視覚化する必要があります。この方法でのみ、ブラックボックス AI に完全に別れを告げることができます。これは現実的な仕事です。奇跡も魔法もありません。頼れるのは、たゆまぬ努力と機械学習の明るい未来へのビジョンだけです。

<<:  グラフニューラルネットワークは急成長を遂げており、最新の進歩はここにあります

>>:  これらの 10 個のオープンソース機械学習ツールを使用したことがありますか?

ブログ    
ブログ    

推薦する

人工知能は本当に人間の仕事を置き換えるのでしょうか?

今年に入ってから、新型コロナウイルス感染症の継続的な感染拡大により世界的に景気が低迷し、多くの国や地...

TensorFlow が機械学習開発に使用できるのはなぜですか?

機械学習は複雑な分野ですが、データの取得、モデルのトレーニング、予測の提供、将来の結果の改善のプロセ...

...

SSD ソリッド ステート ドライブの構造: マスター制御アルゴリズム、ファームウェア、NAND フラッシュ メモリ

SSD ソリッド ステート ドライブは近年のストレージ技術における大きな進歩であり、コンピューターの...

瞳に秘められた市場、虹彩認証は100億のブルーオーシャンを歓迎します!

[[442794]]人工知能の人気が高まるにつれ、生体認証技術が大きな注目を集めています。特に20...

...

感情コンピューティングは人間とコンピュータの相互作用の中核となるのでしょうか?感情分析におけるディープラーニングの応用について

人間とコンピュータの相互作用における感情コンピューティングの役割感情コンピューティングについて話す前...

10年後にあなたの生活を変える5つの新しいテクノロジー

脳制御のコンピューターからホログラフィック ビデオ ゲームまで、今後 10 年間であなたの生活を変え...

...

百度、「小度スマートスピーカー」を89元の試用価格で発売

「Xiaodu スマートスピーカーの価格についてお話ししましょうか?」 「売ることがそんなに失礼だな...

スタンフォード大学とOpenAIがメタプロンプティングを提案し、最も強力なゼロショットプロンプティング技術が誕生した。

最新世代の言語モデル (特に GPT-4、PaLM、LLaMa) は、自然言語処理と生成の限界を押し...

...

Googleの研究は数学の問題をコードに変換することで、機械証明の精度を大幅に向上させた。

コンピュータは以前から数学の証明を検証するために使用されてきましたが、特別に設計された証明言語を使用...

マイクロソフト、Windows 10を開発者向けAIプラットフォームに

人工知能の人気が高まるにつれ、あらゆるテクノロジーメーカーが自社の製品やサービスに人工知能というラベ...

中国の女性医師が効率的なNASアルゴリズムを提案:AutoMLは一度トレーニングするだけで数十億のハードウェアに適応できる

現在、カリフォルニア大学リバーサイド校が率いるチームは、ジョージ・メイソン大学およびノー​​トルダム...