人工知能を人間化して、その信頼性を確立するにはどうすればよいでしょうか?

人工知能を人間化して、その信頼性を確立するにはどうすればよいでしょうか?

人工知能 (AI) はブラックボックスの実践と見なされることが多く、テクノロジー自体の仕組みではなく、一見正しい結果を提供する能力のみに注目が集まります。ほとんどの場合、私たちは結果を達成するための具体的な方法よりも結果そのものに関心があるので、この効果は十分な場合もあります。

[[346007]]

残念ながら、AI をブラックボックスのプロセスと見なすと、信頼性と信頼性に疑問が生じます。純粋に技術的な観点から見ると、これにより AI モデルの問題を分析したり解決したりすることが困難になります。

この記事では、これらの潜在的な問題のいくつかと解決策のアイデアをいくつか見ていきます。

AIとは何ですか?

多くの企業がすでに自社製品に人工知能(AI)の要素を取り入れています。一部の「AI」の主張は単なる偽のマーケティング戦術ですが、実際に、AI と機械学習 (ML) 技術を使用して機能を向上させ始めている製品が数多くあります。

つまり、AI とは、知的な動作を示すことができるあらゆるコンピュータ システムを指します。この記事の文脈では、知能とは、概念を学習、理解、要約するコンピュータの能力の飛躍的進歩を表します。

現在、AI テクノロジーの最も一般的な実装は機械学習であり、コンピューター アルゴリズムがデータ内のパターンを学習して認識します。機械学習は、大きく分けて 3 つのカテゴリに分けられます。

  • 教師あり学習: 既知のデータを使用してモデルをトレーニングします。これは、子供たちに最も単純な絵ベースの識字教育教材を見せるようなものです。このタイプの ML も最も一般的な実装形式ですが、致命的な欠陥があります。信頼性が高く、正しくラベル付けされた大量のトレーニング データがなければ、適切なモデルを確立できないのです。
  • 教師なし学習: モデルが独自にデータ内のパターンを見つけます。モバイル ナビゲーション ソフトウェアはこの学習方法を使用しており、データについて何も知らない状況に特に適しています。現在、業界では、実用的な意義を持つ可能性のあるデータから重要なクラスターを識別するために、教師なし学習がよく使用されています。
  • 強化学習: モデルが正しく実行されるたびに報酬が与えられます。これは典型的な「試行錯誤」の学習方法だからです。この ML アプローチは、最初に少量のデータしかない場合に特に強力です。その出現により、継続的な学習モデルが直接可能になります。つまり、モデルは新しいデータにさらされた後も適応および開発を続け、決して時代遅れにならないようになります。

しかし、これらの方法はすべて同じ問題に直面しています。それは、学習後に生成された最終モデルを理解できないということです。つまり、AI は人間化できないのです。

信頼の問題

ブラックボックス AI システムのほとんどは、機械が自己学習プロセスを通じてモデルを構築するシステムです。しかし、システムが結論に至ったプロセスを理解しなければ、モデルが特定の結論に至った理由を理解したり、その結論に自信が持てなかったりすることは困難です。モデルがなぜそのような判断を下すのかを尋ねることはできません。結果を私たちの予想と比較することしかできません。

AI モデルがどのように機能するかを理解していないと、そのモデルが常に正しいとどうして信じることができるでしょうか?

その結果、この不可解さは数え切れないほどのディストピア SF 作品に反映され、AI は恐怖や謎の代名詞となっています。さらに悪いことに、多くの AI モデルは深刻な偏見を示しており、信頼の危機をさらに悪化させています。

偏見や先入観は常に人間の思考や意識に根ざしており、今やAI技術でも避けられない大きな問題となっている。システムは過去の経験からしか学習できないため、モデルが将来に向けて正しい選択を行えるように導くには不十分な可能性があります。

犯罪予測における AI モデルの応用を例に挙げてみましょう。これらのモデルは過去の犯罪統計を使用して、どの地域の犯罪率が高いかを判断します。法執行機関はこれらの地域に警察資源を集中させるために巡回ルートを調整した。しかし、この種のデータを使用すること自体が偏見を強めたり、相関関係と因果関係を混同する可能性があるという疑念が広くあります。

たとえば、COVID-19パンデミックが猛威を振るうと、米国全土の主要都市では暴力犯罪率が大幅に低下し始めましたが、一部の管轄区域では自動車窃盗やその他の強盗が増加しました。一般の人はこれらの変化を全国的な社会的距離の確保と合理的に関連付けるかもしれないが、予測的な警察モデルは犯罪率や逮捕率の減少を安定性と安全性の向上と誤って解釈する可能性がある。

現在、AI にはさまざまな形のバイアスが存在します。顔認識ソフトウェアを例にとると、「人口統計的偏り」を含むアルゴリズムは、対象者の年齢、性別、人種に応じて、極めて変動の大きい精度で判断を下す可能性があることが研究で示されている。

データ サイエンティストが特徴エンジニアリングを実行してソース データをクリーンアップしようとすると、バイアス/バイアスの問題も発生し、微妙ではあるが非常に重要な特徴が誤って失われることがあります。

最も影響力のある偏見は、社会レベルでも問題を引き起こす可能性があります。たとえば、広告アルゴリズムは人口統計データに基づいて広告を定期的に配信し、年齢、性別、人種、宗教、社会経済などの要素に基づく偏見をモデルに永続化します。 AI技術は、採用アプリケーションにおける同様の欠陥も明らかにしました。

もちろん、これらすべては人間自身が引き起こした原始的な偏見から生じています。しかし、AI モデル内のこれらのバイアスをどのように検出し、除去するのでしょうか?

説明可能なAI

AI システムへの信頼を高めるために、AI 研究者は AI ソリューションを人間化することを目指して、説明可能な AI (XAI) を構築する可能性を模索しています。

XAI は、ブラック ボックス モデルでは識別が難しい多くの問題を回避できます。たとえば、2017 年に研究者は AI の不正行為の問題を発見したと報告しました。トレーニング後、AI モデルは馬の画像を正常に識別できるようになりました。これは、従来の犬/猫の認識能力のバリエーションに相当します。しかし、AIが実際に学習したのは、馬の写真に関連付けられた特定の著作権注釈を認識することだったことが判明しました。

XAI を実装するには、モデル内の操作プロセス全体を観察して理解する必要があります。この探究自体はすでに理論計算機科学の主要な分野を構成しており、その難しさは誰もが想像する以上に大きいかもしれません。

より単純な機械学習アルゴリズムは、もちろん比較的簡単に説明できますが、ニューラル ネットワークははるかに複雑です。階層化関連性伝播 (LRP) などの最新の技術でも、意思決定にとってどの入力がより重要であるかを示すことしかできません。そのため、研究者たちは、モデルによって行われた特定の予測を説明できることを期待して、局所的な解釈可能性の目標に注目し始めました。

AI モデルを理解するのはなぜ難しいのでしょうか?

現在、ほとんどの ML モデルは人工ニューロンに基づいています。人工ニューロン、またはパーセプトロンは、伝達関数を使用して 1 つ以上の重み付けされた入力を結合します。これに基づいて、アクティベーション関数はしきい値を使用して発火するかどうかを決定します。このアプローチは、実際には人間の脳内のニューロンの働きを制限します。

一般的な ML モデルとして、ニューラル ネットワークは複数層の人工ニューロンで構成されます。入力層には重要な特徴と同じ数の入力があり、多数の隠し層が追加されています。最後に、出力層にも重要な特徴の数と同じ数の出力が存在します。

最も単純なアプリケーション シナリオを例に、曜日と休日に基づいて ML モデルが起床時刻を予測する方法を考えてみましょう。

ランダムな重みを使用すると、モデルは水曜日の午前 9 時に起きる必要があるという誤った結果を生成します。

もちろん、各人工ニューロンの正確な重みを手動で設定することは不可能です。代わりに、バックプロパゲーションと呼ばれるプロセスを使用する必要があります。このプロセスでは、アルゴリズムがモデルを逆方向​​に処理してネットワークの重みとバイアスを調整し、予測出力と期待出力の差を最小限に抑えます。調整後の結果は、水曜日の朝7時に起きるべきだということになります。

信頼と倫理

AI を使ってがんを診断したり、群衆の中から指名手配犯を特定したり、雇用や解雇の決定を下したりしようとする中で、テクノロジーに対する信頼の問題はますます重要になっています。 AI が人間化できないのであれば、人々に AI を信頼してもらうにはどうしたらよいでしょうか。そのような信頼がなければ、AI を倫理的に使用することはさらに不可能です。

この重要な問題に関して、EU は信頼できる AI に関する倫理ガイドラインを採択し、AI が倫理的で信頼できるかどうかを判断するための 7 つのテストを設定しました。

  • 人間の行為と監視: 人間が最終決定権を持たないと、AI システムは決定を下すことができません。
  • テクノロジーの堅牢性とセキュリティ: AI テクノロジーを使用する前に、障害保護機能があり、ハッキングされないことなど、そのテクノロジーが信頼できるかどうかを明確にする必要があります。
  • プライバシーとデータ ガバナンス: AI モデルでは、医療用画像による病気の診断など、個人データを処理する必要があることがよくあります。つまり、データのプライバシーが非常に重要になります。
  • 透明性: AI モデルは、人間が説明できるという基本的な特性を持つ必要があります。
  • 多様性、差別の禁止、公平性: 主に、先ほど説明した偏見の問題に関係します。
  • 環境と社会の幸福: ここで、標準設定者は、AI 技術の発展がディストピア的な未来につながる可能性があるという懸念を和らげたいと考えています。
  • 説明責任: 独立した監督または監視システムを確立する必要があります。

もちろん、ガイドラインでは、AI技術は合法的な方法で使用されなければならないことも強調されています。

AIの人間化

この記事は、人工知能を人間化して、その信頼性を真に確立するにはどうすればよいかという 1 つの点にのみ焦点を当てています。

人間が理解できない機械を信頼するのは難しく、結局この革新的な技術から真の恩恵を受けることができなくなります。

この問題は、ソフトウェア テスト自動化の分野で特に顕著です。このようなシステムの目的は、アプリケーション ソリューションをリリースする前に潜在的な問題を見つけることだからです。具体的なプロセスを理解していなければ、テスト結果が正しいことをどうやって確認できるでしょうか。間違った決定が下されたらどうなるでしょうか。AI システムが何かを見逃した場合、どうやってそれを検出したり対応したりできるでしょうか。

この問題を解決するには、ML アルゴリズムとテスト システムを組み合わせて、意思決定と対応するデータの関係を視覚化する必要があります。この方法でのみ、ブラックボックス AI に完全に別れを告げることができます。これは現実的な仕事です。奇跡も魔法もありません。頼れるのは、たゆまぬ努力と機械学習の明るい未来へのビジョンだけです。

<<:  グラフニューラルネットワークは急成長を遂げており、最新の進歩はここにあります

>>:  これらの 10 個のオープンソース機械学習ツールを使用したことがありますか?

ブログ    

推薦する

日本では想像以上にAIが活用されている

[[443157]]日本における人工知能の開発はますます成熟しつつあります。日本は現在、「人工知能ア...

科学者は人工知能を使って新素材を発見する

米国の科学者チームは、人工知能を利用して非常に短期間で新たな鉄鋼の代替品を発見したいと考えている。そ...

世界の通信業界の専門家が2024年を予測

世界の通信業界の専門家が2024年を予測5G が世界をカバーし、人工知能がネットワークを再形成し、デ...

マイクロソフトCEOナデラ氏:私は4つの大きな変革を経験してきたが、AIは5番目だ

マイクロソフトのサティア・ナデラCEOは10月23日、メディアのインタビューで、同社はこれまで4つの...

ヒントエンジニアリング: LLM で必要なものを生成

翻訳者 |ブガッティレビュー | Chonglou生成AIモデルは、入力に基づいてコンテンツを生成す...

...

Llama 2を完全に置き換えます!白川2は歴史上最も完全なトレーニングの詳細を明らかにする

この国では、ラマの時代は終わった。 9月6日、百川知能は7Bと13Bのベースとチャットバージョンを含...

自動運転の安全性の問題をどう解決するのか?まずは名前を変えてみましょう。

現在、新世代情報技術の急速な発展に伴い、自動運転をはじめとした新興産業がますます台頭しています。世界...

自動化でワークライフバランスを改善

多くの従業員にとって、仕事と生活のバランスを取ることは課題です。私たちは睡眠とほぼ同じくらいの時間を...

Java プログラミング スキル - データ構造とアルゴリズム「循環リンク リストとジョセフ問題」

[[386837]]ジョセフ問題1、2、...n と番号が付けられた n 人が輪になって座り、番号...

ロボットがIoTアプリケーションの範囲を拡大する方法

ロボットの学習能力と IoT アプリケーションの相互接続性は、実りある未来を約束します。モノのインタ...

Google と OpenAI の新しい研究: ダーウィンの進化論を人工知能アルゴリズムの設計にどのように活用するか?

現代の機械知能は自然を模倣することに基づいています。この分野の主な目標は、人間が生物学的に持つ強力な...

量子コンピューティング + 人工知能 - これが未来のテクノロジーの最大のホットスポットです!

[[219586]] 1990年代初頭、ウィチタ州立大学の物理学教授エリザベス・バーマンが量子物理...

AIは50個の三角形を使って、ポストモダンな雰囲気を持つモナリザの抽象版を描きます

[[425382]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...