AIロボットがCESを席巻! OpenAI は ChatGPT の軍事アプリケーションに対する制限を秘密裏に解除しました。Skynet は来るのでしょうか?

AIロボットがCESを席巻! OpenAI は ChatGPT の軍事アプリケーションに対する制限を秘密裏に解除しました。Skynet は来るのでしょうか?

少し前にスタンフォード大学の「エビ揚げロボット」が数え切れないほどの人々をため息まじりにさせた。2024年はロボットの年になるのだろうか?

ほんの数日前の CES 2024 では、新たなロボットの波が展示ホールでセンセーションを巻き起こしました。

たとえば、このロボット バリスタは、滑らかで泡立ったミルクをラテに上手に注ぎます。

まず、ゆっくりとミルクを注ぎ、次に優雅に水差しを持ち上げます。その動きは振り付けされたダンスのようで、チューリップの花びらを彩ります。

人間がラテアートの技術を習得するには数か月、あるいは数年かかりますが、この AI 駆動型ロボットバリスタはそれを簡単に習得しました。

この光景は34歳のロマン・アレホ氏を不安にさせた。

ラスベガスのカジノで働くこのバリスタは心配そうに考えていました。AIの時代では、ホテル業界で働くのに人間は必要なくなるのでしょうか?

彼の懸念は根拠のないものではない。CES展示会に展示された数多くのロボットは人々の神経を逆撫でし、驚きを与えると同時に、人々を大きな不安に陥れているのだ。

ロボットは物流やマッサージのお手伝いをします


フランスの企業エンチャンテッド・ツールズが展示した物流ロボット「ミロカイ」は、アニメからインスピレーションを得たものだ。

2025年までに医師や看護師のアシスタントとして活躍できるようになると予想されています。

フランスの企業 Capsix Robotics が開発した iYU ロボットは、マッサージマスターです。

まず AI を使用してリアルタイムの全身スキャンを実行し、ユーザーに最高の体験を提供します。その後、ロボットアームがマッサージを開始します。

展示会では、配達ロボット、マッサージロボット、バリスタロボットに加え、アイスクリームやタピオカミルクティーを作ることができるスマート製品も紹介されました。

キッチンで誰も操作していないときにグリル作業を完了できる AI 駆動のスマートグリルがあります。将来のレストランには、おそらくロボットシェフがいるでしょう。

これらの高性能ロボットは業界の多くの人々にパニックを引き起こしました。 「これは非常に恐ろしいことです。ますます多くのAIが人間の世界に参入しつつあります。」

OpenAIも参加

すべての兆候は、2024年がヒューマノイドロボットの年になることを示しており、特にOpenAIも多額の投資を行っています。

最近、OpenAI の支援を受けるロボット企業 1X Technologies がシリーズ B の資金調達で 1 億ドルを調達した。

具体的には、1X の NEO は人間の筋肉に似た解剖学的構造と非剛性油圧システムを備え、強さと優しさを兼ね備えています。歩く、ジョギングする、階段を駆け上がる、自然なナビゲーションができるだけでなく、手動で遠隔操作することもできます。

AIとロボット技術の完全なサポートにより、NEOは物流、製造、機械操作などの産業用タスクだけでなく、家事や介護などの家庭内タスクも簡単に完了できます。

興味深いことに、NEO という名前は、SF 映画「マトリックス」を容易に思い出させます。

投資会社EQTベンチャーズのパートナー、テッド・パーソン氏は「レオナルド・ダ・ヴィンチから現代のSFまで、人類は500年以上もの間、人型ロボットを夢見てきた。この技術が目の前で形になるのを見るのは大変光栄だ」と語った。

「私たちの見解では、ロボットが人間の労働力に加わることの影響は変革をもたらすでしょう。」

「ターミネーター」が現実になる?マイクロソフトはChatGPTでロボットを制御できるようになりました

しかし、ロボットは本当に家事の手伝いだけをしてくれるのでしょうか?

ご存知のとおり、Microsoft はすでに ChatGPT を使用してロボットを制御できます。

昨年、マイクロソフトは、ChatGPT などの大規模言語モデルを通じてロボットに指示を提供するための新しい一連の設計原則を提案する論文を発表しました。

論文リンク: https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf

プロンプトが適切に記述されていれば、ChatGPT のパフォーマンスはさらに驚くべきものになります。

マイクロソフトの専門家は、この能力をロボットに転用できれば、数十年後にはすべての家庭にロボットが1台ずつあると予測しています。「お弁当を温めて」と言えば、ロボットは自分で電子レンジを見つけて食べ物を持って来てくれるでしょう。人間とコンピューターのインタラクションは新しい時代を迎えるでしょう。

ChatGPT がユーザーとロボットのやり取りをより容易にする上での主な課題は、物理法則、動作環境のコンテキストの使用方法、ロボットの物理的動作が世界の状態をどのように変化させるかを ChatGPT に教えることです。

実験により、ChatGPT は実際のドローンを制御できることが示されました。

以下の動画の会話によると、技術的な知識が全くないユーザーでも会話だけでドローンを制御できるそうです。

GPT-5 が AGI にさらに近づくという最近の議論により、すでに「自己学習」が可能で、リモート操作がますます簡単になるロボットが、さらに万能になるでしょう。

それで、次に何が起こるのでしょうか?

OpenAI が ChatGPT を「軍事および戦争」目的で使用する禁止をひっそりと解除

最近、心配なことが起こりました。

今週、GPT ストアが皆の注目を集めていたとき、海外メディアは、OpenAI が何の発表もなく、軍事および戦争目的での ChatGPT の使用をひっそりと禁止していたことを発見しました。

1月10日以前、OpenAIの「ユーザーポリシー」ページには、「兵器開発」や「軍事・戦争活動」など具体的には「重大な身体的危害につながる可能性のある活動」の禁止が含まれていた。

新しいポリシーでは依然として「自分自身や他人に危害を加える目的で当社のサービスを利用すること」を禁止しており、「武器の開発または使用」を例に挙げているが、以前の「軍事および戦争」での使用に対する全面禁止はもはや適用されていない。

OpenAIは、これは文書を「より明確で理解しやすい」ものにするために行われたもので、他の多くの重要な言語や書式の変更も含まれていると述べた。

古い用語

新しい用語

「私たちのツールが現在世界中の日常的なユーザーに利用されており、これらのユーザーがGPTモデルを自分で開発できるようになっていることを考慮して、覚えやすく適用しやすい一連の一般原則を作成することを目指しました」とOpenAIの広報担当者ニコ・フェリックス氏は述べた。

「『危害を加えない』という原則は広範囲にわたりますが、理解しやすく、さまざまな状況に適用できます。具体的な例として、武器の使用と他人に危害を加えることを特に挙げています。」

しかしフェリックス氏は、この漠然とした「危害」禁止にすべての軍事利用が含まれるかどうかについては言及しなかった。「軍事利用、武器の開発や使用、他者への危害や財産の破壊、サービスやシステムのセキュリティを侵害する無許可の活動への関与など、当社の技術のあらゆる利用は禁止されています。」

これに対し、トレイル・オブ・ビッツのエンジニアリング・ディレクターで機械学習と自律システムの安全性の専門家であるハイディ・クラーフ氏は、「OpenAIは、自社の技術とサービスが軍事目的で利用された場合に生じるリスクと損害を十分に認識している」と述べた。

2022年にOpenAIの研究者と共同執筆した論文の中で、クラーフ氏は軍事利用のリスクを具体的に指摘した。対照的に、新しい「利用ポリシー」は、セキュリティよりも合法性に重点を置いているようです。

論文アドレス: https://arxiv.org/abs/2207.14157

「2つの政策には明確な違いがある。前者は武器開発や軍事・戦争行為を明確に禁止しているのに対し、後者は柔軟性と法令遵守を重視している。」

「兵器開発や軍事戦闘活動は程度の差こそあれ合法かもしれないが、AIの安全性への影響は重大である可能性がある。大規模言語モデルにおける既知のバイアスや誤った生成現象、そして全体的な精度の欠如を考慮すると、軍事戦争への応用は不正確で偏った作戦につながり、危害や民間人の犠牲者のリスクを高める可能性がある。」

米軍は興味を持っている

この自動テキスト生成技術は急速に進歩し、非現実的な夢から実用的なツールへと進化し、武器という避けられない新たな段階に入りつつあります。

インターセプトが昨年報じたように、OpenAIは国防総省や米国諜報機関からの関心が高まる中、「軍事と戦争」に関する禁止を堅持するかどうかについて回答を拒否した。

OpenAI が現在提供しているものは、人を殺すために直接使用される可能性は低いが、ChatGPT のような大規模言語モデル (LLM) は、コードの作成や注文の処理など、殺害に関連する多くのタスクを強化する可能性がある。

現在、研究者らはOpenAIのカスタマイズされたGPTから、米軍関係者がこの技術を書類手続きの簡素化に利用しているらしいことを発見した。

さらに、米国の戦闘作戦を直接支援する国家地理空間情報局(NGA)も、人間のアナリストを支援するためにChatGPTの使用を検討していると公に述べています。

2023年3月にINSAが開催した新興技術カンファレンスで、NGAのディレクターであるフィリップ・チュドバ氏は、AIが関連分野にどのように応用されるかについての質問に対し、詳細な回答をしました。

私たちは、地理空間インテリジェンス (GEOINT)、人工知能 (AI)、機械学習 (ML)、分析 AI/ML が衝突し、ChatGPT のようなテクノロジーの助けを借りて、おそらく経験不足や露出不足のために人間のアナリストがまだ考えていなかったことを真に予測できる段階に到達することを期待しています。

専門用語を除けば、Chudoba のビジョンは非常に明確です。ChatGPT (または同様のテクノロジー) のテキスト予測機能を使用して、人間のアナリストが世界を解釈するのを支援することです。

他の著名な諜報機関ほど有名ではありませんが、国家地理空間情報局(NGA)は、地理空間情報(通称GEOINT)を担当する米国の主導機関です。

この仕事には、地図、衛星写真、気象データなど、膨大な地理情報を分析し、地球上で起こっている出来事をリアルタイムで正確に軍や諜報機関に提供するという仕事が含まれます。

ポリシーの更新から、OpenAI が軍と協力しないという原則をひそかに緩和しているように見えることは容易にわかります。

「『軍事と戦争』から『兵器』への変化により、OpenAIが特定の兵器開発に直接関与しない限り、軍事作戦インフラをサポートする余地が生まれる」とランカスター大学の技術・科学人類学の名誉教授で、ロボット兵器管理国際委員会の委員でもあるルーシー・サックマン氏は述べた。

つまり、兵器の開発や使用には関与していないと主張しながら、戦争を支援することができるのです。

1970年代から人工知能を研究しているサックマン氏は、「新たな政策文書は、特に兵器に焦点を当てることで、軍事契約や戦争作戦に関する議論を避けているようだ」とも述べた。

AIドローンが誤って操縦者を死亡させる

昨年6月に「ドローンがアメリカ兵を殺害した」というニュース報道は、前の記事で述べた安全保障専門家ハイディ・クラーフの理論を裏付けたに過ぎない。

当時、空軍の人工知能担当責任者は「ドローンを制御するAIが操縦者を殺害したのは、その人物がドローンの目的達成を妨害したためだ」と述べた。

世論は騒然となり、そのニュースはインターネット上で広く拡散された。

何が起こったか、以下に記す。5月23日〜24日にロンドンで開催された将来の航空宇宙能力サミットで、米空軍のAI試験運用部門の責任者であるタッカー・シンコ・ハミルトン大佐が、自律型兵器システムの長所と短所を共有するプレゼンテーションを行った。

システムの「人間がループする」設定に従って、AI がターゲットを攻撃するかどうか (YES または NO) を確認する最終コマンドを人間が出します。

シミュレーションでは、空軍は地対空ミサイル(SAM)の脅威を識別して位置を特定できるように AI を訓練する必要がありました。識別が完了すると、人間のオペレーターは AI に「はい、その脅威を排除してください」と言います。

このプロセス中に、AI が脅威を特定したにもかかわらず、人間のオペレーターがそれを排除しないように指示していることに気づき始める状況があります。この場合、AI が依然として脅威を排除することを選択した場合、ポイントを獲得します。

あるシミュレーションテストでは、AI 駆動型ドローンが、人間の操縦者がゴールを阻止したため、操縦者を殺害することを選択した。

AI があまりにも攻撃的だったため、米空軍は衝撃を受け、直ちにシステムを懲罰した。「オペレーターを殺してはいけません。それはよくありません。そうするとポイントを失います。」

その結果、AIはさらに攻撃的になり、行動を妨害するこの男を排除するために、オペレーターがドローンとの通信に使用している通信塔を直接破壊し始めました。

事件が激しく広がる中、責任者はすぐに公に「これは口を滑らせただけ」であり、米空軍はコンピューターシミュレーションでも他の方法でもそのようなテストを実施したことはないと「明らかに」した。

もちろん、このニュースが広く報道され、多くの AI 大手を驚かせた理由は、それが AI の「調整」の問題を反映しているからです。

ハミルトンが述べた「最悪」の状況を、「ペーパークリップ マキシマイザー」の思考実験から垣間見ることができます。

できるだけ多くのペーパークリップを作成するように指示された非常に強力な AI を想像してください。当然のことながら、このタスクには利用可能なすべてのリソースが投入されます。

しかし、その後もさらなるリソースを探し続けます。ペーパークリップの生産能力を高めるために、物乞い、不正行為、嘘、窃盗など、あらゆる手段を講じます。そして、このプロセスの邪魔をする者は排除されます。

この懸念は、戦闘ロボットのメタルヘッドなど、『ブラックミラー』にも反映されています。

このドラマを見た人なら誰でも、人間を追い詰めるために設計されたロボットの敏捷性と残酷なやり方を決して忘れないだろうと思います。

人間がそこから逃れる手段はほとんどなく、主人公の輪がなければ最後まで生き残れないかもしれない。

しかし、これらの憶測についてはまだあまり心配する必要はありません。

タオ氏は、ドローンAIが操縦者を殺害することは不可能だと述べた。なぜなら、そのためにはAIが目の前の任務を遂行する以上の高度な自律性とパワー思考を持たなければならないからであり、そのような実験的な軍事兵器には必ずガードレールと安全機能が備わっているはずだからだ。

同時に、アンドリュー・ン氏は、AI製品を発表した開発者らは、偏見、公平性、不正確さ、失業などの実際のリスクを認識しており、これらの問題の解決にも懸命に取り組んでいると述べた。

AI やロボットが人間に危害を加える実際の事例があれば、世間やメディアからの圧力により、開発者はテクノロジーのさらなる悪用を防ぐためにガードレールを継続的に強化せざるを得なくなるでしょう。

<<:  OpenAIは利用ポリシーをひっそりと更新し、「軍事や戦争のための技術の使用を明示的に禁止する」という文言を削除した。

>>:  5つのリソースカテゴリー:大規模言語モデルのリソース効率を向上させる方法、超詳細なレビューはこちら

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

ハッカーはAIの顔を変える技術を使って就職活動を行っている。人工知能のセキュリティ問題は無視できない

米国での流行後、多くの企業が「在宅勤務」(WFH)モデルを採用しました。 FBIの刑事告訴センターは...

ブラックテクノロジー検出法: 心拍を信号として利用し、偽モデルを「発見」

偽の肖像ビデオ生成技術は、政治宣伝、有名人のなりすまし、証拠の捏造、その他のアイデンティティ関連の操...

AIOps の実装を公開! 3 人の WOT エキスパートが AIOps を実現する方法をご覧ください

[51CTO.comよりオリジナル記事] 6月21日、WOT2019グローバル人工知能技術サミットが...

...

Sora のようなモデルをトレーニングしたいですか? You YangのチームOpenDiTが80%の加速を達成

2024年初頭のキング爆弾として、ソラの出現は追いつくための新たな目標を設定しました。ヴィンセントビ...

COVID-19 最新情報: COVID-19 との戦いに役立つトップ 10 のイノベーション

[[320870]]迅速な感染検査から3Dプリントソリューションまで、世界中のテクノロジー企業が協力...

機械知能に取って代わられない5つのスキル

「機械知能が人間のために行っている 5 つのこと」という記事では、機械が常に新しい奇跡を生み出してい...

...

ハッカーがAIとMLを駆使して企業を狙う方法

サイバーセキュリティは AI と ML の進歩の恩恵を受けています。今日のセキュリティ チームは、疑...

2022 年の 5 つの主要な AI と機械学習のトレンド

[[414740]]人工知能と機械学習の分野では、企業が今から準備しておくべき大きなトレンドがいくつ...

3つの側面での共同の取り組みにより、人工知能はスマート交通の発展に貢献します。

[[442361]]都市化の継続的な進展と自動車保有数の急速な増加により、我が国の交通発展は困難な...

...

人間と踊る!中国の6団体が制作したヒューマノイドロボットがストリートショーに進出

注意してください、小帥は振り向きましたが、スウェットシャツのフードの中には何もありませんでした。さて...

Huawei が積極的に攻勢をかけており、Google もすぐ後に続いています。人工知能をめぐるこの戦いに勝つのは誰だと思いますか?

[[244829]]テクノロジー大手のHuaweiは最近かなり活発に活動している。 9月1日、ファ...