完璧な最適化目標、AIの盲点

完璧な最適化目標、AIの盲点

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。

人工知能 (AI) システムの脆弱性は業界関係者から長い間批判されており、わずかなデータエラーでもシステムが機能しなくなる可能性があります。たとえば、画像認識では、画像内の小さなピクセルの変化は人間の視覚を妨げることはありませんが、機械に混乱を引き起こす可能性があります。 CVPR 2017 の論文で説明されているように、「1 つのピクセルを変更すると、ニューラル ネットワークが画像を誤認識する可能性があります。」

その理由については、研究者が多くの研究を行ってきました。データが十分ではない、アルゴリズムの設計が洗練されていない...最近、テクノロジーメディアWiredで、コンピューター科学者のErik J. Larson氏が、最適化思考がAIの脆弱性の根本的な原因であると述べた記事を書きました。 (訳者注:ここでの最適化思考は、「十分な良さを追求する」ことと「完璧なAIを追求する」ことにも翻訳できます)

「AIの現在の脆弱性の根本的な原因は、AI設計が現在その高い理想として崇めている最適化そのものであると認めることで、私たちは異端へと向かわなければなりません。」

最適化は、AI を可能な限り正確にするための推進力であり、論理の抽象的な世界では、この推進力は間違いなく良いものですが、AI が動作する現実の世界では、あらゆる利点には代償が伴います。たとえば、機械学習の計算の精度を向上させるにはより多くのデータが必要であり、計算の信頼性を確保するにはより良いデータが必要です。

「この方が良い」には継続的なデータ収集が必要なため、AIが徐々に全体像を形成し始めると、新しいデータの出現によって既存の状況が変化し、システムがクラッシュする可能性があります。これは、一般の人々からほぼ完璧だと考えられている AI が、犬をパイナップルと間違えたり、無実の人を指名手配犯と間違えたりして、しばしば「精神異常」になる理由の 1 つでもある。

1.最適化の脆弱性

人間は最適化する存在ではなく、脳自体も過去数万年の間に完璧に最適化された機能を進化させてきたわけではありません。脳は軽量で、100% の精度を目指すことはなく、少量のデータから仮説を導き出すことができます。

言い換えれば、脳は「閾値」でなんとかやっていけるだけで満足しているのです。1% の精度で生き残れるのであれば、それが脳に必要な精度なのです。しかし、この最小限の生存戦略は認知バイアスにもつながり、人々を閉鎖的、無謀、宿命論的、パニック状態に陥らせる可能性があります。

AI の厳格なデータ駆動型トレーニング方法は、この認知バイアスを効果的に回避できますが、「過剰修正」に陥る原因にもなります。実際、人間にとって、健全な心構えは完璧主義の破壊的な影響を防ぐことができ、神経質でない脳は「人生の困難や衝撃」を乗り越えるのに役立ちます。

この「反脆弱性」を AI に導入するということは、ますます大きくなるデータの圧縮を追求するのではなく、誤った情報、ユーザーの違い、環境の乱れに対する AI の許容度を向上させることに重点を置く方が良いことも意味します。このような AI は、消費エネルギーが少なく、ランダムなミスが少なく、負担も少なくなります。どうやってやるんですか?現在は3つの方法があります。

2.不確実性に対処するためのAIを構築する

500年前、偉大な実用主義者ニコラエ・マキャヴェッリは、世俗的な成功には直感に反する勇気が必要だと指摘しました。知的な人にとって、存在しない知識のほとんどは不必要であり、人生は私たちの期待に応えないことが多いでしょう。したがって、人間は曖昧さへの対処方法を変えることができます。

たとえば、AI が「スーツ」という単語に遭遇すると、その単語が衣服を意味するのか、法律上の名詞を意味するのかを判断するために、さらに情報を分析します。より多くの情報を分析するということは、通常、ビッグデータを使用して回答を絞り込むことを意味し、これは99.9%のケースで機能します。残りの0.1%の場合、AIは依然として「自信を持って」スーツを法律名詞として表現しますが、実際にはそれは衣服です。

したがって、AI は十分に広い範囲の回答を持つ必要があります。 AI を設計する際、研究者は曖昧さを許容し、人間が詩の複数の意味を理解できるのと同じように、曖昧な選択肢を後続のタスクに組み込む必要があります。下流のタスクで「曖昧さ」の存在が許されない場合、設計された AI は人間の助けを要求し、人間に代わって決定を下せるようにする必要があります。

3.データをインスピレーションとして活用する

現在の AI は、ビッグデータに基づく発散的思考を通じて創造性を実現することを望んでいます。しかし、数多くの科学的研究により、生物の創造性には、データに基づかない非論理的なプロセスが伴うことが多いことがわかっています。そのため、ビッグデータに頼れば、大量の「新しい」作品を一括して作成できるかもしれませんが、これらの作品は履歴データの混合と組み合わせに限定されます。つまり、大規模な発散的思考の生成には、必然的に低品質が伴うのです。

データ駆動型の作成の限界は、GPT-3 や Artbreeder のようなテキストおよび画像ジェネレーターに見られます。歴史的な場面を「観察」し、専門家の意見を加えることで、次のゴッホを生み出そうとしています。しかし、その結果、この「ゴッホ」は以前の画家の作品をコピーすることしかできないことがよくあります。この AI 設計文化は明らかにイノベーションの意味を誤解しています。これは FaceNet の高い評価からも明らかであり、顔認識におけるいくつかの革新は依然として力ずくの最適化のままです。車のトルクバンドを調整して性能を向上させ、それを自動車輸送の革命と呼ぶことに例えることができます。

したがって、データを捏造の源としてではなく、インスピレーションの源として見る時が来ています。 90年前、「科学的発見の論理」の著者カール・ポパーは、考えを証明するよりも事実を使って考えを覆す方が論理的であると指摘しました。この種の考え方を AI 製品に取り入れることで、データの機能を、小さなアイデアを大量に生成するものから、もちろん前例のないアイデアを除いて、あらゆるものを大量に破壊するものへと変えることができます。 (訳者注:ここでの大量破壊兵器とは「重複作品」を除外することを指します)

したがって、「複製作品」を際限なく生産するよりも、コンピューターに価値ある作品を検索させ、評価されていない「ゴッホ」を見つけさせる方がよいのです。

4.人間と機械の統合

人間の脳を AI に統合するというのは SF のように聞こえ、短期間で大きな進歩を遂げることは困難ですが、別の方法を見つけて、人間と機械の友好的な関係を設計することはできます。人間と機械の現在のパートナーシップは、本来あるべき役割を果たしていません。人間は機械の世話係として、または AI システムの更新の補助役として行動しています。前者は退屈でつまらないという意味で、後者は受動的という意味です。どうすれば解決できるでしょうか?現在の作業は次の 3 つの側面に焦点を当てています。

1. 学習データが不足していることを「認識」できる AI を研究開発します。つまり、正しい AI を追求するのではなく、AI が間違っているときにそれを知らせ、AI に自分自身を認識する知恵を与えることを追求する方がよいということです。人間の脳はコンピュータと同じ速度でデータを処理できないため、無知なアルゴリズムが自分たちが万能であると考えると、人間が介入するのは常に遅すぎます。したがって、「愚か者」は、自分が「愚か者」であることに気づくようにプログラムされるべきです。

2. 人間とコンピュータの相互作用インターフェースを改善する。最適化を追求することで生じる不透明な設計をブラックボックスアルゴリズムと呼びます。インタラクション デザインでは、ブラック ボックスの性質を排除する必要があります。たとえば、固定されたボタン (オプションが 1 つだけ) を、最初のオプションの確率が 70%、2 番目のオプションの確率が 20%、3 番目のオプションの確率が 5% などであることを示す確率を含むオプションに置き換えます。満足のいく選択肢がない場合、AI にリダイレクトを依頼するか、コンピューターのロジックと人間のイニシアチブを最大限に引き出すために手動操作を実行します。

3. 脳をベースにした分散型 AI モデルを構築する。脳には、論理、物語、感情などの分散化された認知メカニズムが含まれており、それらは互いに制約し、バランスをとっています。したがって、AI システムは、異なる推論アーキテクチャを組み込むように設計することもできます。たとえば、ディープラーニングが必要なデータにアクセスできない場合、システムは if-then 制御手順に移行できます。さらに、AI は、自身の内部最適化戦略に熱心に集中するのではなく、外部に目を向けて人類学的な手がかりから学ぶことができます。

上記の技術的な提案は、未来の空想ではなく、現在実現可能な設計革新です。研究者はビッグデータや完璧な知能という仮定を捨て去る必要があります。絶えず変化するこの世界では、創造性には正確さよりも賢さが求められます。

<<:  AIベースの顔認識は工場にとって次の技術的マイルストーンとなる

>>:  2022年以降の中国の自動運転産業の展望

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

2021年最新Contrastive Learning(対照学習)主要会議での必読古典論文解釈

みなさんこんにちは。私はDiaobaiです。最近、対照学習が流行っているので、ICLR2020では、...

電子商取引検索アルゴリズム技術の進化

2018年9月28日、アリババの電子商取引検索部門は「未来を探して推奨する」をテーマにした技術サミッ...

オフライン小売業で AI 自動チェックアウト サービスを構築するにはどうすればよいでしょうか?

翻訳者 | 邱凱校正 | 梁哲、孫淑娟列に並ぶ必要がなく、遅延もなく、便利に購入できるという顧客体験...

ドミノ倒し: DataOps、AI、機械学習だけがマイクロサービスと分散システムを無敵にできる

[[440885]] [51CTO.com クイック翻訳]次のようなシナリオを想像してみてください。...

...

Hudiに基づくByteDanceの機械学習アプリケーションシナリオ

統合ストリームとバッチサンプルの生成プロセスを明らかにし、Hudiカーネルの最適化と変換を共有し、デ...

生成AIと予測AIの主な違いと実際の応用

翻訳者 |陳俊レビュー | Chonglou近年、予測 AI は、高度な推奨アルゴリズム、リスク評価...

「ブラックミラー」に匹敵する-AI技術が母親に亡くなった娘の姿を見せた

現在、外国の科学技術チームがAI技術を利用して、唯一の子供を亡くした母親の長年の願いを叶えた。彼らは...

GPT-4Vを試した後、マイクロソフトは166ページに及ぶ評価レポートを作成した。業界関係者:上級ユーザー必読

1週間前、ChatGPTはメジャーアップデートを受けました。GPT-4とGPT-3.5の両モデルは、...

Microsoft XiaoIceが第7世代にアップグレードされ、ユーザーの権限を強化するアバターフレームワークがリリースされました

[51CTO.comよりオリジナル記事] 8月15日、マイクロソフト(アジア)インターネットエンジニ...

量子コンピューティングの冬が来る、ルカン氏:現実は残酷、誇大宣伝が多すぎる

「量子コンピューティングの冬が来るのか?」今週の金曜日、AIの先駆者であるヤン・ルカン氏の発言が議論...

ディープラーニング(CNN RNN Attention)を使用して大規模なテキスト分類問題を解決する - 概要と実践

[[188373]]著者は最近、深層学習を応用してタオバオ商品のカテゴリー予測問題を解決するプロジェ...

...

...

...