新浪科技報、北京時間3月15日、海外メディアの報道によると、スティーブン・ホーキング博士は最近、人類を破滅させないためには技術の発展を制御する必要があると警告した。世界的に有名な物理学者は以前にも人工知能の危険性について警告していた。彼は、大きな被害が出る前に人類が直面する脅威を素早く検知する方法を見つけなければならないと信じている。
「攻撃性は文明の始まり以来、生存に絶対的な利点があるため有益だった」とホーキング博士は語った。「攻撃性はダーウィンの進化論を通じて私たちの遺伝子に組み込まれている。しかし、今日の技術開発は、この攻撃性が核戦争や生物兵器戦争という形で人類を滅ぼす可能性があるところまで加速している。私たちはこの生来の本能を制御するために論理と理性を使う必要がある」 しかしホーキング氏は、人類はさまざまな問題に直面しているものの、生き残る希望はまだ残っており、そのためには私たち全員の努力が必要だとも述べた。 「我々はこうした脅威をもっと早く認識し、制御不能になる前に行動する必要がある。それは何らかの形の世界政府の樹立を意味するかもしれない」とホーキング博士は語った。 世界政府はさまざまな問題を引き起こす可能性もあります。 「(世界政府は)暴政になる可能性がある」とホーキング博士は語った。「このすべては人類の終焉を意味するように聞こえるが、私は楽観主義者だ。人類はこれらの課題に立ち向かうだろうと思う」 2015年のオンラインQ&Aで、ホーキング氏は人工知能があまりにも強力になり、意図せずして人類を滅ぼす可能性があると示唆した。 「AIの本当の脅威はその悪意ではなく、その能力だ」とホーキング博士は語った。「超知能AIは目標を達成する能力が非常に高いが、その目標が人間の目標と矛盾すると、私たちは困ったことになる」 彼は続けた。「アリが嫌いな人ではないかもしれませんが、誤ってアリを踏んでしまう可能性があります。また、水力発電のグリーンエネルギープロジェクトを担当している場合は、プロジェクトが位置するエリアに水没したアリの巣がたくさんある可能性があります。これはアリにとって非常に残念なことです。私たちは、人間をこれらのアリと同じ状況に置くことを避けたいのです。」 テスラ社のイーロン・マスク最高経営責任者(CEO)も同様の指摘をしており、人工知能の開発は管理されなければならないと警告している。 「時間の経過とともに、生物学的知能とデジタル知能がより密接に融合していくだろうと思う」とマスク氏は語った。彼はまた、将来、人工知能の発展に遅れを取らないために人間が機械と融合するかもしれないと示唆した。 (任天堂) |
<<: 高度な機械学習ノート 1 | TensorFlow のインストールと開始方法
>>: 人工知能が世界を席巻し、人類はサイボーグへと向かう必要がある
億万長者のイーロン・マスク氏は最近、一連のツイートで、ロボットが人間の仕事を奪うなら、政府による普遍...
ChatGPT モデルは今年人気となり、予想外に化学の分野全体を覆しました。まず、Google De...
マスク氏は突如行動を起こし、OpenAI開発者会議の前に大型モデルGrokをリリースした。他の Ch...
確かに、人工知能(AI)主導のテクノロジーが人間を不要にするか否かをめぐる議論は、少なくともこの聴衆...
大きなモデルの髪は、本当にどんどんカールしてきています! 11月に、OpenAIはまずGPTを使用し...
Amazon Lex は、音声とテキストを使用してあらゆるアプリケーションに会話型インターフェースを...
インターネットとオンラインショッピングの普及は、一部のオフライン業界に前例のない影響をもたらしました...
Facebook は、人工知能プロジェクトで独自のオープンソース AI フレームワーク PyTorc...
やっていることをやめて、窓の外の鳥やリス、昆虫などを眺めてみましょう。これらの生物は、食物を見つけた...
[[252582]]ビッグデータダイジェスト制作翻訳者:fuma、Ni Ni、Jiang Baos...
データ サイエンスでは、AI 研究者は不完全なデータセットを処理するという課題にしばしば直面します。...