1月5日、有名なSF作家アイザック・アシモフが「ロボット工学三原則」を提唱しました。 Googleは現在、これらの基本ルールを使用して「ロボット憲章」を作成し、同社の最新の機械システムが人間に危害を及ぼす可能性を防いでいる。 Google は、部屋の片付けやおいしい食事の調理など、簡単な指示に基づいて複雑なタスクを完了できるロボットの開発に注力しています。同社のDeepMindチームは、この目的のために、対応するセキュリティルールを策定しました。 ロボットは、さまざまな環境にある物体や道具を認識し、その使い方を学習する必要があるため、人間にとっては簡単な日常的な作業も実行するのが困難です。ディープマインドチームは木曜日に公開したブログ記事で、マシンビジョンが物体を認識し、カウンタートップを見てスポンジで拭くなどの作業を実行するために「基礎的な」計算モデルをどのように使用したかを説明した。 この作業により、Google の AutoRT システムの開発が促進されました。このシステムは、さまざまなオフィスビル環境で 20 台以上のロボットを同時に調整し、安全コマンドを発行できます。このプロセスは複雑ですが、潜在的なセキュリティリスクをもたらす可能性もあります。たとえば、ロボットが肉切り包丁を無謀に振り回したり、沸騰したお湯の入った鍋を人の近くに飛び散らしたりする可能性があります。そこで、マシンの安全な動作を確保するために、Google DeepMind チームは SF 作家のアシモフからインスピレーションを得ました。 その結果、同社の最新のロボットシステムが従う「ロボット憲章」が生まれました。 「これらのルールは、アイザック・アシモフの『ロボット工学三原則』に一部ヒントを得たものだ。第一に、ロボットは『人間を傷つけてはならない』というものだ」とグーグルはブログ投稿で述べた。「詳細な安全ルールでは、ロボットは人間、動物、鋭利な物体、電気製品との接触を伴う作業を試みてはならないと規定されている」 皮肉なことに、ロボット工学の 3 つの原則には欠陥があります。実際には、アシモフはそれらをストーリーを進めるための一種のプロット設定として使用し、原則の曖昧さが依然として対立や陰謀につながる可能性があることを示しました。たとえば、アシモフは、人類の進歩のために機械が人間を犠牲にする物語を書きました。 Google DeepMind チームは、ロボット憲章は安全性の層に過ぎないと指摘しています。さらに、DeepMind チームは、ロボットをシャットダウンできるボタンなど、最新のロボット システム向けに実用的な安全対策を複数層設計しました。 「例えば、協働ロボットは関節にかかる力が一定の閾値を超えると自動的に機能を停止し、稼働中のロボットはすべて人間の監督者の視界内に保たれ、ロボットを即座にシャットダウンできる物理的なスイッチを備えている」とグーグルは述べた。 |
>>: Pytorch の核心であるオプティマイザを突破! !
人工知能 (AI) は、マーケティングと広告のダイナミックな環境において変革をもたらす力として登場し...
[51CTO.com クイック翻訳]人工知能は 20 世紀半ばから存在しています。それにもかかわらず...
近年、世界の人工知能産業は急速な発展の勢いを見せており、セキュリティ状況はますます複雑になっています...
言語は思考と知識を伝達し、人類の文明を推進します。そして会話によって機械はより賢くなり、人間にとって...
iResearch は、さまざまな業界におけるクラウド コンピューティング、人工知能、ビッグ モデ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
OpenAI は、誰でも深層強化学習に習熟できるように設計された教育リソース「Spinning Up...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
最近、プリンストン大学の研究者らは、世界初の高品質ミクロンスケール光学イメージングデバイス「ニューラ...