1月5日、有名なSF作家アイザック・アシモフが「ロボット工学三原則」を提唱しました。 Googleは現在、これらの基本ルールを使用して「ロボット憲章」を作成し、同社の最新の機械システムが人間に危害を及ぼす可能性を防いでいる。 Google は、部屋の片付けやおいしい食事の調理など、簡単な指示に基づいて複雑なタスクを完了できるロボットの開発に注力しています。同社のDeepMindチームは、この目的のために、対応するセキュリティルールを策定しました。 ロボットは、さまざまな環境にある物体や道具を認識し、その使い方を学習する必要があるため、人間にとっては簡単な日常的な作業も実行するのが困難です。ディープマインドチームは木曜日に公開したブログ記事で、マシンビジョンが物体を認識し、カウンタートップを見てスポンジで拭くなどの作業を実行するために「基礎的な」計算モデルをどのように使用したかを説明した。 この作業により、Google の AutoRT システムの開発が促進されました。このシステムは、さまざまなオフィスビル環境で 20 台以上のロボットを同時に調整し、安全コマンドを発行できます。このプロセスは複雑ですが、潜在的なセキュリティリスクをもたらす可能性もあります。たとえば、ロボットが肉切り包丁を無謀に振り回したり、沸騰したお湯の入った鍋を人の近くに飛び散らしたりする可能性があります。そこで、マシンの安全な動作を確保するために、Google DeepMind チームは SF 作家のアシモフからインスピレーションを得ました。 その結果、同社の最新のロボットシステムが従う「ロボット憲章」が生まれました。 「これらのルールは、アイザック・アシモフの『ロボット工学三原則』に一部ヒントを得たものだ。第一に、ロボットは『人間を傷つけてはならない』というものだ」とグーグルはブログ投稿で述べた。「詳細な安全ルールでは、ロボットは人間、動物、鋭利な物体、電気製品との接触を伴う作業を試みてはならないと規定されている」 皮肉なことに、ロボット工学の 3 つの原則には欠陥があります。実際には、アシモフはそれらをストーリーを進めるための一種のプロット設定として使用し、原則の曖昧さが依然として対立や陰謀につながる可能性があることを示しました。たとえば、アシモフは、人類の進歩のために機械が人間を犠牲にする物語を書きました。 Google DeepMind チームは、ロボット憲章は安全性の層に過ぎないと指摘しています。さらに、DeepMind チームは、ロボットをシャットダウンできるボタンなど、最新のロボット システム向けに実用的な安全対策を複数層設計しました。 「例えば、協働ロボットは関節にかかる力が一定の閾値を超えると自動的に機能を停止し、稼働中のロボットはすべて人間の監督者の視界内に保たれ、ロボットを即座にシャットダウンできる物理的なスイッチを備えている」とグーグルは述べた。 |
>>: Pytorch の核心であるオプティマイザを突破! !
人工知能に関して言えば、かつて映画「マトリックス」で描かれたSFシーンが世界に衝撃を与え、トレンドを...
ジェレミー・ハワード氏はかつて、Generative Adversarial Network (GA...
人工知能の波が世界を席巻しています。人工知能、機械学習、ディープラーニングなどの高頻度語が頻繁に登場...
地球上の仕事でロボットが人間に取って代わり、今ではロボットが宇宙に行って仕事をこなすようになっている...
[[317839]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
MIT と Nvidia の研究者は、高性能コンピューティング タスクで使用されるデータ構造であるス...
2023 年の FinTech 業界では、変革的な AI トレンドが見られます。機械学習、ロボティ...
IBMは最近、スイスのチューリッヒ研究所がデータ分析アルゴリズムにおいて画期的な進歩を遂げ、膨大なデ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
シアトル港は100年以上の歴史がありますが、非常に新しい技術を導入しています。シアトル港とシアトル・...
著者 | Fu Haoxian、Peng Xiangzhou 他グラフニューラルネットワークの長期的...
新しいアプローチにより、機械学習モデルはタスクを学習する際により多くのデータに焦点を当てるようになり...