軍事情報は戦争と同様、不確実性の多い霧です。予測不可能で、予測不可能です。現在の人工知能の発展傾向から判断すると、近い将来の戦争において、人間と機械の統合にはまだ解決されていない多くの隠れた危険があります。 (1)複雑な情報環境において、人間や機械は限られた情報を一定期間内に吸収・消化・利用する。人間にとって、プレッシャーが大きければ大きいほど、情報の誤解が増え、混乱や当惑、事故を引き起こす可能性が高くなる。機械にとって、ドメイン間の非構造化データを学習、理解、予測することは、依然として非常に困難な作業です。 (2)戦争における意思決定に必要な情報が時間的にも空間的にも広範囲に分散しているため、一部の重要な情報は依然として入手が困難である。さらに、機械によって収集された重要な客観的な物理データと、人間が主観的に処理した情報や知識を調整して統合することは困難です。 (3)将来の戦争では、非線形特性や予期せぬ変動が多数発生し、戦闘プロセスや結果に予測不可能な側面が数多く生じることになる。公理に基づく形式的な論理的推論は、複雑で変化しやすい戦闘状況における意思決定のニーズを満たすにはほど遠い。核兵器の継続的な普及と拡散を考えると、大国と小国の間の将来の戦争のコストはますます高くなるだろう。人工知能がどれだけ発展しても、未来は人類のものである。人類は人工知能に人類の運命を決めさせるのではなく、未来の戦争のゲームのルールを共同で定義し、人工知能の運命を決めるべきだ。その理由は、人工知能は論理的であるが、未来の戦争は論理的であるだけでなく、非論理的な要素も多数含んでいるからだ。 (4)各国の自律装備の分類が異なるため、強力な人工知能や汎用人工知能兵器の概念の定義と理解に大きな違いがあります。したがって、現時点で最も重要な課題は、特定の技術的問題(技術の反復は非常に迅速に更新されます)をどう解決するかではなく、人工知能の応用に関する基本的な概念と定義についてどのように合意に達するかです。たとえば、①AIとは何か? ②自律とは何か? ③自動化とインテリジェンスの違いは何ですか? ④機械計算と人間計算の違いは何ですか? ⑤人間と機械の機能・能力の配分の境界はどこにあるか? ⑥データとAIとリスク責任の関係は? ⑦計算可能性と決定可能性の違いなど いくつかの定義はまだ非常に大まかで、さらに精緻化する必要があります。たとえば、人間の安全保障の観点から、「人間をループから外す」自律型兵器を禁止することは、普遍的な価値観に沿っており、制御不能のリスクを減らすために必要です。しかし、どのような人々がシステムループ内にいるのかはしばしば無視され、一部の無責任な人々が防疫システムで事態を悪化させる可能性があります。 (5)世界の自主技術の発展については、定期的に自主技術の発展に関する詳細な評価と早期警告を実施し、技術発展のチェックポイントを管理し、技術発展の予測分析を行い、センシティブ技術の開発に従事する重点機関と研究開発人員を重点的に監督し、一定の学術的公開要件を確立するための共同評価チームを設置することを推奨する。 (6)AIの軍事的開発が直面する安全保障上のリスクと課題には主に以下のものが含まれる。 ① 人工知能や自律システムは予期せぬエスカレーションや危機の不安定化につながる可能性がある。 ②人工知能と自律システムは敵対国間の戦略的安定性を低下させる(例:中国と米国、米国とロシアの戦略的関係は緊張が高まる)。 ③ 人間と自律システムのさまざまな組み合わせ(人間の判断+人間の意思決定、人間の判断+機械の意思決定、機械の判断+人間の意思決定、機械の判断+機械の意思決定など)が、両者の間の状況のエスカレーションに影響を与えます。 ④ 機械は人間が送る抑止信号(特に緊張緩和信号)を理解するのが苦手である。 ⑤ 自律システムが誤って友軍や民間人を攻撃する事件は、さらなる疑問を提起するだろう。 ⑥ 人工知能や自律システムは不安定な軍拡競争につながる可能性がある。 ⑦ 自律システムの普及は、不確実性を増大させ、セキュリティ上の懸念を引き起こすような対策の真剣な模索を引き起こす可能性がある。 計算は複雑で、計算は複雑であるべきです。エッセイを書くことは一種の計算プロセスですが、数字やグラフィックの代わりにテキスト記号を使用します。 人間が世界を完全に支配することは不可能ですが、理解しようと努力することはできます。この知性は、より新しい哲学的カテゴリーと思考を生み出すでしょう。 フォン・ノイマンが脳とコンピュータの関係について書いた最後の著書『コンピュータと脳』の中で、彼は自身の見解を要約し、脳は機械よりもはるかに複雑であるだけでなく、彼が当初思い描いていたものとは異なる経路でその機能を実現しているようだと認めた。彼は、バイナリを使用するコンピューターは脳のシミュレーションにはまったく適していないとほぼ結論付けました。これは、脳の論理構造が論理や数学の論理構造とはまったく異なるという結論にほぼ達したためです。したがって、「中枢神経系が実際に使用する数学的または論理的言語を評価する観点から、私たちが使用する数学の外部形式は、そのような作業にはまったく適していません。」 最近の科学的研究によってこれが確認されました。フランスの神経科学者ロマン・ブレット氏の研究結果は、神経コーディングとして知られる脳とコンピューターの基盤となる構造の一貫性に根本的な疑問を投げかけるものだ。脳とコンピューターの比喩の影響を受けて、科学者は刺激とニューロンの関係という技術的な意味を、ニューロンのコードが刺激を完全に表すという表現的な意味へと転換しました。実際、ニューラル ネットワークがどのようにして脳内の理想的な観察者の「下流構造」に信号を最適なデコード方法で伝達するかはまだわかっておらず、単純なモデルでも明確な仮説は存在しません。したがって、この比喩によって、科学者は感覚とニューロンのつながりにのみ焦点を当て、動物の行動が実際にニューロンに及ぼす影響を無視することになる可能性がある。 ハンガリーの神経科学者ジェルジ・ブサキ氏の研究結果はさらに過激なものである。ブサキは著書『The Brain From the Inside Out』の中で、脳は情報をコード化して表現するのではなく、むしろ構築するのだと主張している。彼の見解では、脳は単に受動的に刺激を受け取って神経コード化によってそれを表現するだけではなく、むしろ能動的にさまざまな可能性を探索してさまざまな選択肢をテストするのです。これは間違いなく、コンピューターを使って脳を表現するという比喩を完全に覆すものである。 脳科学の観点から見ても、コンピュータ科学の観点から見ても、脳をコンピュータに例える比喩はもはや通用しないかもしれない。コブ氏は、この比喩がコンピューターに関する研究に適用され、人々の目をくらませ、実際の研究の範囲を狭めていると鋭く指摘した。 |
>>: AIが大学入試のエッセイを書いたら何点取れるでしょうか?
ビデオセグメンテーションタスクは、画像セグメンテーションタスクの拡張版です。ビデオ内のすべてのターゲ...
[51CTO.comからのオリジナル記事]クラウドコンピューティング、ビッグデータ、5G、モノのイン...
デジタル変革の後半期に入る中、デジタルとリアルの融合をいかに加速し、グリーン・低炭素の発展へと向かう...
[[334948]]自動運転車、音声アシスタント、その他の人工知能技術は、ほとんどの人にとって革命...
最近のガートナーの調査によると、労働力の自動化とエンタープライズ人工知能が 2021 年の主要なトレ...
負荷分散アルゴリズムの種類を分析した後、動的負荷分散について紹介します。この概念は主にロードバランサ...
さまざまなメーカーが続々と参入し、スマートカー市場はますます熱を帯びています。このような背景から、ス...
1月12日、アリババ、AI研究所、清華大学などの共同研究チームが、新たな超大規模認知事前トレーニング...
放射線学誌に掲載された新しい研究によると、ディープラーニングと呼ばれる高度な人工知能は、一般的に使用...
現在の大規模なビデオ運用および保守プロセスでは、CDN の故障したハード ドライブの交換が大きな問題...
1月16日、中国における大型モデルの偽造品撲滅活動で初の成功事例が発表された。アリババクラウドとアリ...
DeepMindの共同創設者であり、Inflection AIの創設者でもあるムスタファ・スレイマン...
今日、デジタル変革はビジネス存続の基盤となっています。自動化された工場から人工知能 (AI) 品質管...