軍用殺人ロボットは人類の救世主か悪魔か?

軍用殺人ロボットは人類の救世主か悪魔か?

[[230142]]

「リトルビー」殺人ロボットの背後にあるブラックテクノロジー

学生たちが席に座って快適に勉強している静かな大学の教室を想像してみてください。

突然、蜂ほどの小さなUFOの群れが窓やドアの隙間から群がって入ってきて、まるでスキャンして確認するかのように教室の上空に浮かんでいました。ついに、鈍い音の後に叫び声が聞こえた。少年が血の海に落ちたのだ。

わずか0.5秒の間に、「小さな蜂」が運んでいた3グラムの爆発物を少年の頭に浴びせ、その場で少年を殺害した。突然、教室は悲鳴と恐怖に満ちた虐殺場と化した。

このような血なまぐさいシーンは、カリフォルニア大学のスチュアート・ラッセル教授が公開したビデオから撮影されたものである。ビデオ内の「殺人蜂」による殺害は現実には存在しないが、ビデオ内の技術がすでに存在していることは明らかである。

国連特定通常兵器使用禁止条約会議における「キラーロボット禁止キャンペーン」

最近、韓国科学技術院は、戦闘指揮、目標追跡、無人水中輸送などの分野に適した人工知能技術の開発を目的として、人工知能研究開発センターを開設した。

これは業界の専門家の間で幅広い懸念を引き起こした。30カ国・地域の人工知能・ロボット工学の専門家らは、人工知能兵器を研究している韓国科学技術院(KAIST)をボイコットすると発表したが、大学側は研究開発の中止を約束しなかった。

2017年には早くも、ケンブリッジ大学の存在脅威研究所の研究者らが、世界の終焉と人類の絶滅につながる可能性のある10の脅威を挙げた。リストの上位に挙げられるのは、人工知能と殺人ロボットにほかなりません。

軍用殺人ロボットには「長い歴史」がある

2012年、国連人権理事会のクリストファー・ハインズ氏は、各国に対し「殺人ロボット」の試験、製造、使用を凍結するよう求める報告書を発表した。

彼は次のように考えている。「ロボットには人間の感情がなく、人間の感情を理解したり識別したりすることもできない。また、適切な法的責任追及システムがなければ、ロボットが人間の生死を決定する力を持つべきではないという事実と相まって、このような兵器システムの配備は受け入れられないかもしれない。」

軍用キラーロボットを「人間の介入を必要とせず、または遠隔操作のみで戦場で軍事作戦を完了できる自動機械」と定義すると、自動砲塔、地雷掃海ロボット、軍用ドローンなどがすべて含まれることになる。しかも、この種のものは人々が想像するよりもずっと昔から戦場で活躍しており、ロボットは昔から「殺戮」を行ってきたのだ。

第二次世界大戦中、ドイツ軍は「ゴリアテ遠隔操作爆弾」と呼ばれる対戦車兵器を開発した。有線リモコン(必要に応じて無線リモコン)で操作する無人の「ポケットタンク」です。高性能爆薬を搭載しており、戦車の底部装甲を通して重戦車を直接爆破することができます。

「ゴリアテリモコン爆弾」

集積回路技術の出現と継続的な改善により、コンピュータのサイズは縮小し続けました。1980 年代には、軍用無人車両にコンピュータを搭載できるようになりました。

同時に、コンピューターの機能は絶えず向上しており、車両の移動制御、目標の発見、敵味方の識別、武器の発射などの一連のタスクを完了できます。コンピューターは比較的安定しており、信頼性が高く、複雑で変化する戦場の環境に適応できます。

現在よく知られている「プレデター」ドローンは、本質的には軍用の殺人ロボットです。さらに、一部の国では、戦場で標的を自律的に探索・選択し、発砲するかどうかを決定できる、より自動化された戦闘ロボットの開発がすでに進められている。

MQ-9 リーパー偵察機

それは人道か倫理か?これは問題だ

映画「ターミネーター」は、ロボットが人間を殺し、奴隷化する暗い未来を描いている。映画の中のシーンを現実世界で短期間で再現するのは難しいが、知能相対理論のアナリストであるケ・ミン氏は、軍事用の殺人ロボットの研究と使用は、人類の問題であるだけでなく、倫理的な問題でもあると考えている。

1. 戦闘員か武器か?

伝統的な戦争は主に国家間や政治集団間で起こり、戦争の主体は軍隊と兵士です。キラーロボットの開発と応用により、戦争における戦闘員はもはや兵士のみではなくなり、戦争主体の地位はより複雑になっている。

従来の大砲、戦車、軍艦は人間の手なしには運用できず、兵士が戦争の主力となります。殺人ロボットは人工知能、思考力、判断力を備え、標的を自動的に発見、識別、攻撃し、人間が割り当てた任務を自律的に遂行できるため、兵士に代わって戦闘に突入することになる。

殺人ロボットが戦場に投入されれば、彼らは本物の戦闘員となるだろう。しかし、キラーロボットは行動能力はあっても責任能力を欠いた戦闘員であり、従来の軍の戦闘員とは異なり、兵器とも異なります。殺人ロボットが戦闘員なのか兵器なのかを定義することは困難であり、それに応じた倫理的地位を決定することも困難である。

2. 安全を確保するにはどうすればいいですか?

殺人ロボットにも感情はなく、人間の感情を理解したり区別したりすることはできず、殺される人が敵なのか味方なのかを識別することもできない。自律型殺人ロボットが戦争の道具になった場合、特に何らかの理由で制御を失った場合、無差別に罪のない人々を殺さないという保証は困難です。ロボットが人間の同志を攻撃したり、ロボットを生み出したが人間よりも弱い知的種族に危害を加えたりしないと保証できる人は誰もいません。

実際のところ、自動システムにおけるエラーを制御するための効果的な手段は現在のところ存在しません。プログラムに不具合が生じたり、悪意を持って改ざんされたりすると、血の川が流れる悲劇を引き起こし、人類の安全が大きく脅かされる可能性があります。殺人能力を持つ知能ロボットの開発に制限がなければ、いつかは「全自動」の「殺人ロボット」が戦場に赴き、人間の生死を自ら決定するような状況が生まれるだろう。

3. 敵か味方かを正確に識別するにはどうすればよいでしょうか?

冷兵器の時代から現代に至るまで、敵味方の判別が不十分なために起こる偶発的な負傷は、戦場では常に避けられない問題となってきました。現代の戦争では、偶発的な負傷を避けるために技術的な手段が用いられることが多いが、軍用ロボットが完全に自律的に行​​動するには、解決すべき問題がさらにある。

人間の兵士は、動いている人が敵なのか、味方なのか、あるいは民間人なのかを判断できるだけでなく、相手の意図も比較的正確に理解することができます。しかし、軍用ロボットの場合、せいぜい敵と味方を区別することくらいしかできず、相手の「考え」を判断することは通常難しいため、降伏した兵士や捕虜を射殺する可能性が高く、この行為は国際条約で禁止されています。

4. 自律的に殺す能力が与えられているか?

自律型ロボットに「殺人能力」を与えるべきかどうかは、人工知能や軍事などさまざまな分野の専門家や学者の間で常に議論の焦点となってきた。 1940 年、有名な SF 作家アイザック・アシモフは「ロボット工学三原則」を提唱しました。彼はこう述べた。「ロボットは人間に危害を加えてはならない。ロボットは人間の指示に従わなければならないが、これは第一原則と矛盾してはならない。ロボットは自身の身体を守らなければならないが、これは最初の2つの原則と矛盾してはならない。」

ロボット開発と道徳の関係

フィリップ・K・ディックは『第二のミュータント』の中で、軍用ロボットが人間社会に浸透していく様子を描いている。米ソ核戦争後、国家の破滅を避けるために、アメリカはソ連占領軍を攻撃するために、自ら組み立て、学習し、人間の喉を切り裂くことができる軍用ロボットを作った。しかし、これらのロボットは進化を続け、ソ連の男女兵士や栄養失調の子供たちの姿をした新しいロボットを組み立てた。彼らは人間を攻撃するだけでなく、お互いを殺し合い、さらには月面のアメリカの秘密基地に忍び込み、人類の破滅を予兆した。

もちろん、軍用ロボット 1 台にプログラム エラーが発生したり、敵に妨害されたり、コンピューター ウイルスに感染したりすれば、人間の仲間を攻撃する可能性は確かにあります。

しかし、ロボットが自己認識を獲得して人間を裏切り、独自の仲間を作るのではないかと心配するのはまだ時期尚早だ。

それはアリババの洞窟か、それともパンドラの箱か?

イェール大学の研究者らは、軍事用ロボットを人工知能技術の最も有望な応用分野の一つとして挙げている。軍用ロボットの用途は非常に魅力的です。自国の兵士へのリスクを軽減し、戦争のコストを下げることができるからです。兵士の給料、住宅、年金、医療費などの経費を節約でき、休憩する必要がなく、スピードと正確さにおいて人間よりも優れています。人間の戦闘員だけが患う戦場ストレス障害に悩まされることはなく、情緒的に安定しており、戦争前に動員する必要もなく、命令一つで人間の手の届かない場所まで到達し、さまざまな任務を遂行することができる。

しかし、殺人ロボットが無差別に罪のない人々を殺害した場合、誰が責められるべきなのでしょうか?英国のロボット工学教授ノエル・シャーギ氏は、「これは明らかにロボットのせいではない。ロボットがコンピューターに発砲し、狂い始めたのかもしれない。誰がこの責任を負わなければならないのかを決めることはできない。戦争法において誰が責任を負っているのかを決めることは非常に重要だ」と語った。

人道的観点から言えば、殺人ロボット開発の本来の目的が何であれ、殺人ロボットがロボット戦争で効果的に使用される場合、期待される効果を最大化し、付随的な被害を最小化するという功利主義の原則に従うべきである。

功利主義的な観点から言えば、殺人ロボットには人間の恐怖本能はありません。知能レベルに関係なく、意志が強く、危険を恐れず、勇敢に前進します。キラーロボットには人員や生命維持装置が必要ありません。たとえ破壊されても死傷者が出る心配はありません。新しいものと交換して再び戦闘に投入するだけでよいため、コストを大幅に削減できます。

戦場の偵察、地雷除去、戦闘任務で兵士の代わりにキラーロボットを使用することで、極めて危険な地域から兵士を解放し、戦場での死傷者を減らし、軍事活動のコストと負担を軽減することもできます。しかし、殺人ロボットが人間の兵士のように戦場で自動的に標的を探し、攻撃できるようになれば、制御不能になったロボットが人類に大きな災害をもたらす可能性がある。

さらに、世界各国が殺人ロボットの軍拡競争を繰り広げれば、軍事費は大幅に増加することになる。したがって、全体的に見て、殺人ロボットを使用するメリットは極めて限られています。むしろ、殺人ロボットは人類に大きな脅威をもたらし、デメリットがメリットをはるかに上回ります。いずれにせよ、殺人ロボットの開発と使用が人類の利益の増進にどのように役立つのか理解するのは難しいだろう。

軍用殺人ロボットの開発は軍事分野に大きな変化を引き起こすことは事実です。知能相対理論のアナリストである柯明氏は、軍用ロボットの開発は軍事分野における人工知能の応用の反映であると考えています。それがアリババ洞窟であるかパンドラの箱であるかは、人間自身が見極める必要があります。テクノロジーを真に応用し、人類の発展に奉仕することによってのみ、私たちは真に世界の「アリババ洞窟」を築くことができます。

<<:  10年後に人工知能のリーダーとなる国はどこでしょうか?アメリカ国民:中国であるべきだ

>>:  人工知能バブルの次のラウンドは、消費者向けロボットによって引き起こされるかもしれません。

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

ディープフィードフォワードシーケンスメモリニューラルネットワークに基づく大語彙連続音声認識

【51CTO.comオリジナル記事】まとめ本研究では、ディープフィードフォワードシーケンスメモリニュ...

...

TFとPyTorchだけを知っているだけでは不十分です。PyTorchから自動微分ツールJAXに切り替える方法を見てみましょう。

現在のディープラーニング フレームワークに関しては、TensorFlow と PyTorch を避け...

AIoT技術の幅広い応用と大きな利点

比較的新しい概念である AIoT は、人工知能 (AI) とモノのインターネット (IoT) を組み...

CTR は成功と失敗の鍵です。なぜクリックスルー率はアルゴリズム エンジニアにとって悪夢となっているのでしょうか?

[[409064]]みなさんこんにちは。私は梁唐です。今日は、検索、広告、推奨アルゴリズムにおける...

OpenAIのSora、中国は追いつけないのか?

春節の時期にOpenAIのSoraが大人気でした。私も見てみましたが、正直GPT4が出た時ほどの衝撃...

30億枚の写真データベースを持つ顔認識スタートアップがハッカーの攻撃を受ける! 600以上の法執行機関と銀行の情報が盗まれた

多数の法執行機関と契約している顔認識会社が、ハッキングされ顧客リスト全体が盗まれたと報告した。デイリ...

海雲捷迅2018ビッグデータ博覧会ツアー——2018ビッグデータ博覧会人工知能世界大会決勝戦が終了

5月25日、2018年中国国際ビッグデータ博覧会人工知能世界大会決勝戦が予定通り貴陽で開催され、世界...

【WOT2018】孫林:テクノロジーが業界を変える。貝殻探しビジネスにおけるAIの応用

[51CTO.comより引用] 2018年5月18日〜19日、51CTO主催のグローバルソフトウェア...

人工知能やロボットが新たなスターとなった分野はどこでしょうか?

[[252297]] 8月15日から19日まで、世界ロボット会議が北京市宜荘で成功裏に終了しました...

...

量子コンピュータ、数学オリンピックのための AI... これらは 2020 年のコンピュータと数学における大きな進歩です

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...