人工知能への恐怖とその対処法5つ

人工知能への恐怖とその対処法5つ

AI テクノロジーを導入する IT リーダーは、ある程度の不安を感じるかもしれませんが、それには十分な理由があります。

[[278980]]

人工知能は数十年にわたる開発と応用の歴史を持ちながら奇妙な位置づけにありますが、多くの人々にとって、人工知能は未だに未来的なものと感じられます。実際、人工知能は新しいものではありませんが、常に永遠に「新しい」分野です。これがどこに向かうのかは誰にも確実には分かりません。

理解できない物事を恐れる人もいます。 AI の将来は多くの人々を夜も眠れなくさせていますが、特に起こり得る悪影響を考慮すると、それには十分な理由があります。これはあらゆる主要な技術開発に当てはまると合理的に推測できます。つまり、技術開発は変化を生み出し、それゆえ恐ろしいものとなるのです。しかし、AIに関連する恐怖には優先順位が異なります。たとえば、毎日使用するアプリケーションの一部は分離された方法で構築されているにもかかわらず、ほとんどの人はマイクロサービス アーキテクチャが何であるかを知りません。しかし、マイクロサービスのような技術の進化は、AI のような潜在的な社会的、経済的影響に対する感情的な反応を生み出すことはありません。マイクロサービスも、大衆文化の中で永遠に続くことはないでしょう。

これは主に、人工知能の不確かな将来に対する人々の懸念を反映しています。人々の想像力が暴走すると、その有効性を評価することが難しくなります。これは、今日実用的な AI 戦略を構築しようとしている IT リーダーやその他の幹部にとって特に役立つものではありません。しかし、多くの人々は AI を恐れており、それには十分な理由があります。 AI の初心者は、将来の推測ではなく現在の現実に基づいていることが多いため、失敗しやすくなります。

「人々がAIに対して抱く恐怖の種類は、その人が話しているAIの種類によって異なる」と、カリフォルニア大学アーバイン校の神経科学研究員でContinualAiの共同ディレクターを務めるケイランド・クーパー氏は語る。「人間ができることは何でもできるコンピューターという『汎用人工知能』という、より理論的で遠い概念は、今日一般的に使用されているより現実的なAIアルゴリズムよりも恐怖をかき立てるだろう」

ここでは、今日の AI を取り巻く 5 つの問題と、AI 計画を台無しにしないための対処方法についての専門家のアドバイスを紹介します。

1. 恐怖: AIは偏った結果を生み出す

AI システムにおける偏見やその他の問題の可能性と、それがもたらす決定や結果に対する懸念が高まっています。ハリウッド映画に登場する想像力豊かな AI ストーリーとは異なり、人々は AI の偏見を恐れるべきです。

スカイマインド共同創業者兼 CEO のクリス・ニコルソン氏は、「AI アルゴリズムの良し悪しは、トレーニングに使用したデータ次第です。データセットに組織の過去の偏見が含まれている場合、その予測には過去の行動が反映されます。たとえば、ある企業がアイビーリーグの学位を持つ白人男性を役職に昇進させるのが一般的だとすると、将来のリーダー候補を見極めるようトレーニングされた AI アルゴリズムは、同じタイプの候補者に焦点を絞り、そのカテゴリに該当しない候補者を無視する可能性があります」と述べています。

解決:

人々はこの恐怖を受け入れ、それに基づいて行動すべきです。 AI バイアスによって制御不能な拡散の可能性が高まることを心配する必要はありません。

AI アルゴリズムは、個人や組織の結果に対する責任を免除するものではありません。人間による監視と管理は絶対に必要であり、別の懸念(人間が必要なくなるという懸念)が少し誇張されている場合もあります。

ニコルソン氏は、「AI が全てを知っているとか、完璧な判断を下すなどということは、人々は信じられません。AI のアルゴリズムは人間が作成しますが、人間は間違いを犯します。ですから、すべての企業がやらなければならないことは、AI をチェックするシステムを構築するか、定期的に AI の判断のサンプルを採取して専門家に見せ、こう尋ねます。『これで正しいでしょうか?』そして、その結果が少なくとも専門家の判断より悪くないことです。これが企業が当初期待していた結果です。」と語った。

これは、医療、保険、銀行、政府などの業界では特に重要かもしれません。しかし、実際には、これはどこでも重要な問題です。

Tara-Ai の共同創設者兼 CEO である Iba Masood 氏は、「AI 実践者と機械学習エンジニアは、一定レベルのアルゴリズムの説明責任を遵守する必要があります。また、IT リーダーは、既存のデータセットの偏りをなくす手順を構築する専任のデータ チームを編成する必要があります。これにより、特に最終消費者に関して、システムを使用した意思決定プロセスで一定レベルの公平性と正義を実現できます」と述べています。

これは道徳と公平性の問題です。マズード氏は、AI倫理も競合する差別化要因になる可能性があると考えている。

「今後 5 年間で、AI 支援による意思決定プロセスに公正なメカニズムを導入している企業と取引したいと考える、公正さを意識する消費者がさらに増えると考えています」とマスード氏は語ります。「IT チームは、意思決定システムに使用されるデータ セットの偏りを軽減する取り組みを通じて、この消費者行動の変化に大きな影響を与えることができます。」

2. 恐怖: 人々はAIがなぜそうするのかを知らない

これは未知に対するもう一つの自然な恐怖です。AI の結果の多くは説明が難しいのです。

「最も先進的なAIは、データについて最も正確な予測を行うが、なぜそのような予測を行ったのかを説明するのが最も難しいものでもある」とニコルソン氏は述べた。

これは AI の「ブラック ボックス」と呼ばれることもあり、AI システムによって行われた決定の可視性が欠如していることを意味し、多くの組織にとって重大な問題となる可能性があります。

「多くの場合、人々は何かが行われる理由を知る必要があります」とニコルソン氏は言う。「これは、規制が厳しい組織では特に当てはまります。たとえば、医療業界では、AI アルゴリズムが患者の診断や治療について、なぜその決定が下されたのかを知らずに決定を下すことを望んでいません。」

クーパー氏は別のシナリオを提示し、何か問題が起こったときにブラックボックスモデルが特に重要になると指摘した。

優良株を選ぶアルゴリズムを訓練し、それがうまく機能して、おそらく 9% の利益を上げたとします」とクーパー氏は言う。「金融投資で十分な利益かそれ以上の利益が得られれば (クーパー氏の仮定が妥当であれば)、その理由についてはあまり気にしなくなるかもしれません。利益は得られます。しかし、投資額の 9% を失ったらどうでしょうか。すべてを失ったらどうでしょうか。人々はその理由についてもっと気にするかもしれません。」

「問題は、多くの場合、なぜその選択をしたのかが人々には分からないことだ」と同氏は言う。「これは恐ろしいことだ。なぜなら、使用されているAIシステムへの人々の関心が薄れるだけでなく、何か間違ったことをしてもあまり洞察が得られないからだ」

解決:

この恐怖に対処する方法の 1 つは、AI テクノロジーが向上しても、人間の知性と意思決定があらゆるプロセスにおいて重要な、場合によっては最終的な部分であり続けるようにすることです。言い換えれば、これらのプロセスや意思決定における AI の役割が拡大し続けても、人々がプロセスや意思決定を適切に制御できるようにすることで、この恐怖を軽減することができます。

「ヘルスケアの場合、AI を人間の専門家の意思決定支援の形として使うのが最善です」とニコルソン氏は言います。「つまり、AI を単独で、監督なしに運用させることはできません。AI を既存の意思決定プロセスに統合して、人間の専門家に推奨事項を提示し、最終決定を下すのは専門家であり、その決定を下した理由を説明できるようになります。」

3. 恐怖:AIは間違った判断をする

AIが間違った判断を下すというのは非常に明らかな問題です。 AI の結果の正確性と妥当性は、どのように評価できるでしょうか。AI が間違った選択をしたらどうなるでしょうか。(これらの恐怖の組み合わせが複合的な影響を及ぼす可能性があることがわかります。AI が間違った決定を下し、その理由を説明できない場合はどうなるでしょうか。) AI が生成した結果がすべて「良い」結果であると仮定すると、最も楽観的な AI 支持者でさえ不安に感じるでしょう。

偏見は悪い決断につながる可能性があります。しかし、これは実際にはより広範な恐怖であり、他の否定的な結果の中でも、チームが AI によって生成された結果を信用しなくなる原因となる可能性があります。 AI チーム (または IT 部門) 以外の誰かが結果を分析する場合、この可能性はさらに高くなります。また、組織の事業発展の停滞につながる可能性もあります。

「AIが間違った判断を下すのではないかと心配する人は多い」とベリー社のエンジニアリングディレクター、ジェフ・マクギー氏は言う。「その不安は技術的な観点から見ると非常に広範囲に及ぶことが多いが、結局は人々が『この判断は正しくない』と考えることに帰着する」特に「良い」意思決定の定量的な定義が与えられない場合、実務家にとってこれを判断するのは困難です。 ”

解決:

ここでも、人的要因の重要性が際立っています。ポジティブな結果がどのようなものか定量化できない場合は、偏見などの実際の問題に対処するために、適切な人材と情報の組み合わせに頼りながら、定性的なフレームワークを作成する必要があります。

「そのような定義を確定するには、関係者は良い/悪い決定のあらゆる定義を慎重に検討する必要があります」とマクギー氏は言います。「正確さは理想かもしれませんが、特定の種類のエラーはより受け入れられやすく、より人間らしいものであることがよくあります。さらに、「正確さ」は、人の予測が基準リストを満たしているかどうかを指す場合もありますが、このリストに人間の固有の偏見が含まれている場合、これは良い目標ではない可能性があります。これらのすべての要因は、技術に詳しくない関係者が AI の決定の品質を評価するときに影響する可能性があります。」

4. 恐怖:AIは匿名性の喪失につながる

McGehee 氏は、あまり知られていないが AI の安全性においてより注目される分野になる可能性がある問題を指摘しています。それは、匿名性が当然のことと想定されている場合の匿名性やプライバシーの喪失です。

「これまで、機械学習モデルが一度トレーニングされると、その重み(予測を可能にするパラメータ)には追跡可能なトレーニングデータは含まれないというのが、AI実践者の間で広く受け入れられてきました」とマクギー氏は言う。「しかし、最近、悪意のある人物がトレーニング済みの機械学習モデルを検査し、トレーニングに使用された個々のデータポイントについて意味のある推論を行える技術が登場しました。」これは、個々のデータポイントが匿名を希望する人物であるかどうかに関係します。 ”

解決:

同様に、恐怖の背後にある正当な問題を認識することで、人々はそれに対処するための措置を講じることができます。必要に応じてデータのプライバシーや匿名性を保護することは、組織が全体的なセキュリティ戦略の一環として積極的に対策を講じることができる領域です。これは機械学習における研究開発の進行中の分野でもあります。

マクギー氏は、「これは正当な懸念ではあるが、モデルの重みを適切に保護し暗号化することで、悪意のある人の手に渡る可能性を減らすことができ、この脅威の影響を受けにくい新しい機械学習技術の開発が活発な研究分野となるだろう」と述べた。

5. 恐怖: AIによって人々が失業する

これは人々が直面するかもしれない大きな恐怖であり、現在の現実とより推測的なシナリオをつなぐものです。ほとんどの専門家は、人工知能がより多くの仕事を置き換えるだろうことに同意しています。場合によっては、これは失業を意味するでしょう。

コンピューターの台頭により同様の懸念が生じたコンピューター時代と比べて、近い将来、AI(およびより広義の自動化)はますます幅広く使用されるようになるでしょう。研究により、コンピューターは雇用に影響を与える一方で、より多くの雇用を生み出していることがわかっています。

解決:

「歴史的に見て、新しい技術は仕事を自動化しただけでなく、潜在的に新しい仕事も生み出してきました」とニコルソン氏は言う。「コンピューターが行ってきたすべての仕事を考えてみてください。新しい技術は、多くの場合、それを習得し、サポートし、維持するために人間を必要とします。AIも例外ではありません。」

この恐怖に積極的に対処することが、ビジネスの世界で AI が成功するための鍵となります。そうでなければ、人々は参加できないでしょう。上記のすべてにおいて、人間の関与だけでなく、組織内での AI の積極的な管理も必要となることに注意してください。

「理解すべき重要な点は、仕事の未来は人間と機械のコラボレーションになるということです」とニコルソン氏は言う。「しかし、機械を操作し、維持するには依然として人間が必要です。それは AI にも当てはまります。」

<<:  500億のパラメータ、103の言語をサポート: Googleが「グローバルテキスト翻訳」モデルを発表

>>:  無料の機械学習ベンチマークツール:主要なデータセットを統合し、GitHubに接続して使用する

ブログ    
ブログ    

推薦する

クイックソートアルゴリズムの実装と最適化

[[385051]]この記事はWeChatの公開アカウント「Beta Learns JAVA」から転...

2020年の人工知能と機械学習の予測

人々が次の年に向けて準備を進める中、業界の専門家が 2020 年の人工知能と機械学習に関する予測を発...

ChatGPTの収益成長は阻害されている:モバイルアプリのダウンロードは急増しているが、拡大は遅い

10月10日、最近のレポートによると、OpenAIの人工知能チャットボットChatGPTの収益成長が...

Alibaba Cloud が Tongyi Qianwen 2.0 をリリース、パフォーマンスが加速して GPT-4 に追いつく

2023年杭州雲奇大会において、アリババクラウド最高技術責任者の周景仁氏は、数千億のパラメータを持つ...

ChatGPTに「カスタムコマンド」機能が追加されました

海外メディアの報道によると、7月21日、OpenAIはユーザーにChatGPTの応答に対する強化され...

ビッグデータと人工知能の応用に関する7つのよくある誤解

大規模で高速かつ変化する情報資産を処理するためにビッグデータ テクノロジーを採用する組織が増えるにつ...

人工知能産業の急速な発展により、2021年以降、人工知能セキュリティの市場スペースは巨大になるでしょう。

[[439966]]人工知能は、人間の意識と思考の情報処理をシミュレートできるコンピュータ サイエ...

AIと大量動画が出会うと、IBMは20秒で新時代への扉を開く

序文:約 60,000 時間のビデオから、ある人物の素晴らしい瞬間の 1 分を見つけるにはどうすれば...

MITが家中に設置できる紙のように薄いスピーカーを開発

MITのエンジニアたちは、あらゆる表面を音源に変えることができる紙のように薄いスピーカーを開発した...

機械学習におけるモデルドリフト

今日、機械学習モデルはビジネス上の意思決定の主な原動力となっています。他のビジネス戦略と同様に、これ...

...

AIプロジェクトの落とし穴を避けるためのガイド

インターネットとモバイルインターネット時代の「ビジネスモデルの革新」がもたらす投資配当は、マクロ経済...

人工知能とデータサイエンスに基づく実用的な分析システムの構築におけるシティバンクの実践経験

シティバンクは、人工知能とデータサイエンスに基づいた実用的な分析システムをどのように構築したのでしょ...

私の国のロボット市場は活況を呈しているが、人材と技術的な問題はまだ解決する必要がある。

「スマート+」時代の到来とともに、人工知能、5G、モノのインターネット、ビッグデータなどの技術が徐...

AI を活用した検索と推奨はどれほど強力でしょうか?

著者 | ユン・チャオユーザーと情報の間には、検索か推奨のいずれかが存在します。百度の執行副社長であ...