将来の戦争において、AIは最も危険な兵器となるのでしょうか?

将来の戦争において、AIは最も危険な兵器となるのでしょうか?

AI兵器は歴史の流れとともに進化し、今日では危険な一歩となっている。

[[406883]]

AIは人を殺すことができるのか?

答えはイエスです。

今月、ロシアのメディア「スプートニク」は、AIドローンによる殺人事件の初めての記録を明らかにした。

リビアの首都郊外では、武装した国軍部隊の小集団が計画通り撤退している。

突然、チームの上空にドローンが現れ、機関銃の銃撃が鳴り響いた後、武装した男が血の海に倒れた。

[[406884]]

その後、国連安全保障理事会のリビア問題専門家パネルは、トルコのSTM社が製造した無人攻撃機「カルグ2」にはそれを制御する裏方人員がおらず、完全に事前にプログラムされたプログラムに基づいて追跡し攻撃していたと結論付けた

つまり、カグー2無人機は人間の指示なしに自ら人を殺害したのだ。

AIが戦場で新たな人気者になる

かぐや2号に類似し、自律攻撃能力を持つこのタイプの軍事装備は、一般に「キラーロボット」として知られる自律型致死兵器システム(LAWS)に属します。

ターゲットの発見と識別、ターゲットの追跡、設定されたパラメータに従った武器の誘導など、多くの操作を自動モードで実行できるため、軍事任務を遂行しながら自軍の隊員と民間人の死傷者を減らすことができます。

新たな戦闘力の代表として、致死性自律型兵器は各国からますます注目を集めています。

[[406885]]

米軍は早くも1980年代に、将来的に従来の兵士をロボット兵士に置き換えることを目指し、人工知能の軍事応用に関する研究を専門とする人工知能センターを設立した。

現在までに、米国、フランス、ロシア、日本、英国、トルコ、イラン、韓国などの国々が自律型殺傷兵器システムの研究開発と調達を強化しており、公表されている自律型兵器や軍用ロボットシステムは400種類近くに上る。

人間の兵士と比較すると、ロボット兵士の利点は明らかです。

  • AIの能力が向上すると、自律型兵器は困難でリスクの高い任務を人間の兵士に代わって遂行できるようになり、自らの死傷者を最小限に抑えることができるようになる。
  • 目標識別と攻撃精度の精度を向上させ、民間人の死傷者やその他の付随的被害を軽減する。
  • 自律識別やインテリジェント分析などの技術により、管制官の集中力不足や目標の誤判断などのヒューマンエラーによる事故による負傷を回避できます。

[[406886]]

今年5月初旬のイスラエル・パレスチナ紛争では、 AI技術がすでに情報戦争でその効果を発揮している。

イスラエル国防軍は、アルケミスト、ゴスペル、デプス・オブ・ウィズダムの3つの主要AIシステムを使用して、上級司令官やミサイルなどの軍事プロジェクトの開発者を含む150人以上のハマス工作員を殺害し、民間人の事故による負傷率を大幅に削減したと報告されています。

イスラエルはこの戦いを「人工知能が関わる世界初の戦争」と定義した。

[[406887]]

図 | イスラエルの防空システム

イスラエルは強力な AI 能力を頼りに情報レベルで優位な地位をしっかりと占めているのに対し、ハマスはイスラエルの諜報機関によるデータ収集しか許可していないことがわかります。

イスラエル国防軍(IDF)情報部の高官はメディアに対し、「AIが敵との戦いにおいて重要な要素となり、戦力増強装置となったのは初めてだ。イスラエル軍にとって、これは前例のないことだ」と語った。

マスク氏が反対派を率いる

コインには必ず裏表があり、AI の軍事化も例外ではありません。

致死性自律型兵器の知能レベルが一定レベルまで発達すると、それに応じたリスクももたらされるだろう

AIの軍事応用に関して、新アメリカ安全保障センターの技術・国家安全保障プロジェクトの研究者はかつて、AIは核兵器、コンピューター、航空機の発明のように軍事に大きな影響を与える可能性があると考えていた。

[[406888]]

何年も前、新アメリカ安全保障センターは 132 ページのレポートで AI の軍事化の危険性をいくつか論じました。たとえば、ドローンのコストが下がると、軍は小型で安価な軍用 AI ロボットを大量に生産するようになります。また、数百万機の小型人工知能ドローンの急増は、米国の国家安全保障を脅かすことになります。この報告書はまた、何百万機もの神風特攻ドローンの攻撃に空母戦闘群がどのように対応するかというシナリオも想定している。

[[406889]]

この報告書は、人騒がせなものではない。こうした兵器はテロ集団や過激派によって容易に入手される可能性があり、また戦争中の国々によって大規模に装備・使用される可能性があり、その結果、新たな紛争や軍拡競争が引き起こされる可能性がある。

過激派組織「イスラム国」を含む複数の武装集団がドローンを装備していると噂されている。シリアのテロリストは、シリア政府軍やシリア国内のロシア軍施設を攻撃するために何度もドローンを使用している。

このタイプの AI 兵器はますます多くの国に広まり、より安価で多様化しています。

このため、科学者や起業家は常に軍隊よりも AI の軍事化に反対してきました

例えば、テスラ創業者のマスク氏はAIによる兵器化に特に反対しており、「人工知能脅威論」を公に表明している。

マスク氏はかつて、人工知能における大国間の競争が「おそらく」第三次世界大戦の原因となり、紛争の火種となる可能性もあるとツイートした。

パンドラの箱は開かれてしまったのか?

行動する時間はあまりありません。このパンドラの箱は一度開けたら、閉じるのは困難になるでしょう。

2018年のジュネーブサミットでは、国連通常兵器使用禁止条約(CCW)のグループが自律型兵器に関する正式な交渉を開始し、自律型兵器を禁止する条約の策定を目指した。

しかし、参加国は拘束力のない一連の勧告にとどまり、政策構築については議論を避けた。結局のところ、AI兵器の構築で他国に遅れをとりたい国はどこにもないのだ。

会議中、米国、オーストラリア、ロシア、韓国、イスラエルなどの国々は、殺人ロボット開発の利点とメリットを今後も探求していく意向を繰り返し表明した。

自律型兵器の禁止は人工知能の発展を妨げる可能性があると多くの人が言う。一部の国がこれを許可し、他の国が禁止した場合、深刻な安全保障上のリスクが生じると懸念する人もいる。

[[406890]]

結局、米国とロシアの強固な反対により、AI自律型兵器の包括的禁止に関する交渉は失敗に終わった。

しかし、政府の曖昧さに比べると、AI分野の科学者や起業家の姿勢ははるかに強固で、 「殺人ロボット」の出現は決して許されないだろう。

ジュネーブサミットの開幕を前に、36カ国160社ものAI関連企業と90カ国2400人の個人が共同で宣言書に署名し、自らの技術を「殺人ロボット」の開発に利用しないことを誓った。

この協定の正式名称は「致死的自律型兵器誓約」。スウェーデンのストックホルムで開催された2018年国際人工知能合同会議で発表された。中心となる内容は、致死的自律型兵器システムの開発や研究に参加しないことを誓約し、 「殺人ロボット」の開発と使用を厳しく禁止することだ。

[[406891]]

宣誓した人々の中には、私たちの古い知り合いであるマスク氏もいた。

しかし、兵器のAI化に抵抗する人は多いものの、兵器における人工知能の発展は止まることなく、世界中の人工知能軍事アイテムの数は飛躍的に増加していると言わざるを得ません。

ボストン コンサルティング グループによると、軍事用ロボット向け無人ツールへの世界的支出は、2000年から2015年の間に24億ドルから75億ドルへと3倍に増加した。 2025年までにさらに倍増し、 165億ドルに達すると予想されています。

道徳はAI兵器に対する最後の障壁である

2013年4月以来、平和団体PAXは国際的に有名な「キラーロボット阻止キャンペーン」を設立し、自律型兵器の開発、生産、配備の禁止を推進するとともに、関連する法的、倫理的、安全上の問題に焦点を当ててきました。 PAX にとって、AI 兵器を禁止しなければならない最も重要な理由は、それに伴う倫理的問題です。

技術的な問題が AI 兵器の開発を阻止できない場合、倫理が AI 兵器に対する最後の障壁になります

[[406892]]

多くの人々は、自律型致死兵器は負傷者と捕虜を区別することが難しく、「偶発的な殺人」につながる可能性があると考えている。生死を決める権限が機械に与えられるということは、「道徳的責任の欠如」を意味する。

戦場の状況の複雑さや手続き上の誤りなどにより、致死性自律型兵器が人間の制御から外れると、戦闘能力を失った負傷兵や降伏準備中の兵士の偶発的な負傷を完全に回避することは困難であり、関連する国際法の遵守もますます困難になります。

こうした問題の発生と、それがもたらす道徳的、倫理的問題により、道徳、条約、法律などさまざまなレベルから致死性の自律型兵器の開発と使用をどのように規制するかを模索する人が増えています。

同様に、いかなるAI技術も戦場での偶発的な負傷を避けることはできない。ガザの保健当局の報告によると、イスラエルとパレスチナの紛争で少なくとも66人の子供を含む243人のパレスチナ民間人が死亡しており、 AI技術はこれらの悲劇を防ぐことができなかった

結論

1世紀前に遡ると、化学兵器の出現もまた数え切れないほどの人々の命に苦しみをもたらしました。

しかし、化学兵器の有害性のために化学の発展が停滞したわけではなく、化学兵器の使用を禁止しただけなのです。

同様に、 AI 兵器は歴史の流れに従って単にここまで「来た」だけであり、それ自体に正しいとか間違っているとかいうものは何もない。どのような技術にも長所と短所があります。軍事における AI の利用の流れは止められないため、法律と政治を通じて制限する必要があります。

人間の兵士にはジュネーブ条約などの法的な協定が指針となっているが、AI兵器が手に負えない理由の1つは、AI兵器には制限が少なすぎることであり、現在は標準的な兵器を規制する武力紛争法の保護のみをカバーしている。

良い面としては、政策が改善し続けているため、将来的に国際的な禁止に向けた機運が高まっている

現在、30カ国以上が完全自律型兵器の使用禁止を明確に支持している。また、AI兵器の脅威にさらされている発展途上国は、禁止を求める団体を結成しています。政策が改善し続ければ、民間人の保護などにおいてAIがさらに力を入れるようになると思います。

<<:  「ロボット交通警察」が登場!最先端技術が輸送業界に力を与える

>>:  市場規模は約16.8億元に達しました!物流と配送がドローンと出会う

ブログ    

推薦する

GPU 価格の急激な下落はチップ不足が終わった兆候でしょうか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

アルゴリズムの芸術: MySQL order by のさまざまなソートアルゴリズムの巧みな使用

[[337135]]この記事では、MySQL におけるキーワードの原則を比較的マクロな観点から見てい...

「Singularity」AIコンピューティングプラットフォームの詳細を公開!それは4年前のマイクロソフトの古いプロジェクトの復活であることが判明した

AI サービス プラットフォームのコストと効率の問題は、大手サービス プロバイダーが解決と改善に懸命...

アルパカファミリーモデルが集合的に進化! Tian Yuandong のチームが作成した、GPT-4 と同等の 32k コンテキスト

オープンソースのアルパカ モデル LLaMA コンテキストは、1 つの簡単な変更だけで GPT-4 ...

2018 年に先導するオープンソース AI プロジェクトはどれでしょうか?

[[219623]] [51CTO.com クイック翻訳] 最近では、人工知能 (AI) や機械学...

...

機械学習の最大の欠点を解決する?マックス・プランク研究所とグーグルが因果学習を再び研究

野球選手がボールを打つ様子を見ると、さまざまな要素間の因果関係を推測することができます。たとえば、野...

手術ロボットには依然としてリスクがあり、人工知能技術の応用は成熟する必要がある

外科用ロボット、人工知能心理学者、そして一連の「人工知能+」プロジェクト技術の統合が医療分野に急速に...

Gemini ProはGPT-3.5ほど優れていません。CMUは徹底的な比較研究を実施し、公平性、透明性、再現性を確保しています。

Google Gemini はどれほど強力ですか?カーネギーメロン大学は、専門的かつ客観的な第三者...

台北の5G自動運転バスが試乗開始

「台北市信義路バスレーン自動運転バスイノベーション実験プロジェクト」は台北市で長らくテストされており...

C# DES アルゴリズムの例の分析

C# DES アルゴリズムの復号化を実装する前に、DES の基本原理を見てみましょう。その入力パラメ...

...

【他者から学ぶ】360 多面的関心の想起マインド実践的最適化

1. 事業背景ショートビデオや情報ストリームなどのシナリオの増加に伴い、ユーザーはこれらのシナリオで...

李開復氏:若者は人工知能に取って代わられない仕事を探すべきだ

AlphaGo が囲碁のゲームを解読した日、人類は自分たちの仕事が AI に置き換えられるのではない...