15のインタラクティブな実際の家のシーン、フェイフェイ・リーのチームが大規模な屋内シーンシミュレーション環境をオープンソース化

15のインタラクティブな実際の家のシーン、フェイフェイ・リーのチームが大規模な屋内シーンシミュレーション環境をオープンソース化

この研究では、スタンフォード ビジョン アンド ラーニング ラボ (SVL) の Silvio/Fei-Fei Li グループの研究者が、大規模な現実世界のシナリオでのインタラクティブなタスクのためのロボット ソリューションの開発を可能にする新しいシミュレーション環境、iGibson を導入しました。 iGibson には、実際の住宅をベースにした、完全にインタラクティブで視覚的にリアルなシーンが 15 個含まれており、CubiCasa5K および 3D-Front の 8,000 を超えるシーンをサポートしています。まさに「インタラクティブ性」を実現しています。

最近、AIやロボットのシミュレーション環境の開発が盛んになっています。ほんの数年前までは、シミュレートされたロボット環境は比較的珍しいものでしたが、現在では主要な学術会議 (NeurIPS、CoRL、さらには ICRA や IROS) のほぼすべての AI ロボット関連の論文で使用されています。では、シミュレーション環境は AI の開発にどのように役立つのでしょうか?これには以下の理由が考えられます。

まず、ロボット工学の分野では機械学習がますます重要な役割を果たしており、データ需要が急速に増加しています[2][3][4][5]。現実世界では、ロボットは「リアルタイム」でしかデータを生成できませんが、データの需要が膨大であるため、現実世界からデータを収集することは非現実的です。さらに、機械学習では、収集されたデータが多様である必要があり、ロボットのランダムな探索が必要になります。ロボットが現実世界でランダムに動くことが許されると、ロボット自身や周囲のものに大きな危険が生じます。

第二に、シミュレーション環境がますます堅牢で、現実的(視覚効果と物理エンジン)かつ便利になるにつれて、コンピューティング能力の向上により、ほとんどのマシンでこれらのシミュレーション環境を実行できるようになりました。そのため、ロボットを購入する資金が足りなくても、シミュレーション環境を通じてロボットの研究を行うことができます。シミュレーション環境によりロボット研究への参入障壁が下がり、より多くの人がこの分野を発展させることが可能になります。

最後に、さまざまなロボットタスク(ナビゲーション、把持、操作など)に関する論文の数が増え続けるにつれて、ロボット分野では再現可能なベンチマークが必要であるという問題がますます顕著になってきました。成熟した学問分野では、さまざまな方法や理論を効果的に比較できるように、実験結果を簡潔かつ確実に再現できる必要があります。現実世界よりも、シミュレートされた環境で再現可能なベンチマークを達成する方がはるかに簡単です。

しかし、物理シミュレーションとロボット工学タスクを組み合わせた現在のシミュレーション環境は、多くの場合、少数のタスクに限定されており、クリーンで小さなシーンのみが含まれています。家やオフィスなどの大きなシーンを含むシミュレーション環境は少数で、シーンを変更する機能がなく、ナビゲーション パフォーマンスのみに焦点を当てているもの (Habitat など) や、ゲーム エンジンまたは簡略化されたインタラクション モードを使用するもの (AI2Thor や VirtualHome など) があります。したがって、これらのシミュレーターはエンドツーエンドの感覚運動制御ループの開発をサポートしていないため、シーンとの豊富なインタラクションを必要とするタスクを完了することが困難になります。さらに、単純化されたインタラクション モデルでは、学習可能なインタラクション戦略を実行可能な実際のロボット命令に変換することも困難になります。

上記のアイデアに基づいて、スタンフォード視覚学習研究所 (SVL) の研究者は、インタラクティブAI エージェント iGibson をトレーニングおよびテストするために iGibson を開発しました。

それで、iGibson の何が特別なのでしょうか?まず、次の 2 つの概念を区別しましょう。

物理シミュレーター: 物理エンジンは、現在の環境におけるさまざまな動作の物理的な影響を計算できます。たとえば、物体に力を加えた結果や、水の流れのシミュレーションなどです。コンピュータグラフィックスの発展により、現在では成熟した物理エンジンが数多く存在します。その中でも、ロボット工学の分野で最も有名なのは、Bullet、PyBullet、MuJoCo、Nvidia PhysX および Flex、UnrealEngine、DART、Unity、ODE です。

シミュレーション環境: シミュレーション環境は、物理エンジン、レンダリング エンジン、モデル (シーン、オブジェクト、ロボットを含む) などの複数のコンポーネントを含む全体的なフレームワークです。シミュレーション環境を使用して特定のタスクをシミュレートし、その解決策を検討することができます。

したがって、研究者にとって、解決したいタスクや研究したいトピックによって、使用するシミュレーション環境が決まります。ことわざにあるように、仕事をうまくやり遂げたいなら、まずツールを研ぐ必要があります。 iGibson では、アパート全体など、現実世界の大規模なシナリオにおいて、視覚的な手がかりに基づいてロボットが環境との相互作用を必要とするタスクをどのように解決できるかを研究したいと考えています。

論文リンク: https://arxiv.org/pdf/2012.02924.pdf

プロジェクトアドレス: https://github.com/StanfordVL/iGibson/releases/tag/1.0.0

ウェブサイトアドレス: http://svl.stanford.edu/igibson/

Pip アドレス: https://pypi.org/project/gibson2/

ドキュメントアドレス: http://svl.stanford.edu/igibson/docs/

英語版ブログアドレス: https://ai.stanford.edu/blog/igibson/

既存のシミュレーションエンジンとの比較

既存のシミュレーション エンジンは、大規模なシーン物理的な相互作用をリアルに実行するという、私たちが研究したいタスクをサポートできません。固定ロボットアームに基づくシミュレーション環境 (メタワールド、RLBench、RoboSuite、DoorGym など) には実際のシーンが含まれていないため、屋内ナビゲーションを必要とするタスクはサポートされません。屋内ナビゲーション用に開発されたシミュレーション環境(以前に開発した Gibson v1 および Habitat を含む)は、視覚ナビゲーションと視覚言語ナビゲーションを解決できますが、そこに含まれるシーンは 3 次元で再構築された静的メッシュ モデルです。つまり、シーン全体が再構築されたときの位置に固定され、オブジェクトを移動できず、ロボットがシーンと対話できないことになります。

さらに、Sapien、AI2Thor、ThreeDWorld (TDW) などの一部のシミュレーション環境では、シーンレベルのインタラクション タスクのサポートが開始されています。 Sapien は、連結されたオブジェクト (ドア、キャビネットなど) との対話の問題に重点を置いています。 TDW は、高品質のサウンド、変形、液体シミュレーション (NVIDIA の Flex 物理エンジンに基づく) を提供します。しかし、Sapien も TDW も大規模なシーン モデルを提供していないため、大規模なシーンに関連するタスクの研究をサポートすることはできません。 AI2Thor にはインタラクティブなシーンが含まれていますが、インタラクションはスクリプト化されたシンボリック インタラクションであり、連続的なインタラクションと現実の変化を離散化します。つまり、オブジェクトが事前条件を満たすと、エージェントはオブジェクトが次の状態に入るようにコマンドを発行できます。たとえば、冷蔵庫の開放度は連続した値であるべきですが、現在は「開いている」と「閉じている」の 2 つの状態しかありません。 RoboThor は AI2Thor の後に登場しましたが、シンプルなセンサーと LoCoBot と呼ばれるロボットのシミュレーションのみを提供します。 LoCoBot の技術的な制限と環境の離散化により、ロボットはシミュレートされた環境で複雑なインタラクティブなタスクを学習して解決することができません。

私たちが研究したいタスクは、部屋の掃除や物体の検索など、複雑で長期にわたるモバイル操作タスクです。現実世界に適用できるソリューションを研究するには、実際のインタラクションを伴う大規模なシーンをシミュレートすることが特に重要です。

iGibsonの機能

iGibson の最も重要な機能はインタラクティブ性であり、真にインタラクティブな大規模なシーンを構築できます。この目的のために、次の主要な機能を実装しました。

実際の住宅をベースにした、完全にインタラクティブで視覚的にリアルな 15 のシーン。すべてのオブジェクトは、マテリアル情報や動的情報を含め、実際の方法で相互に作用できます。

CubiCasa5K[6]の8,000以上のシーンをサポートしています。

リアルなセンサー信号シミュレーションには、RGB (物理ベース レンダラー)、深度マップ、1 ビームまたは 16 ビーム LiDAR、セマンティック/インスタンス/マテリアル セグメンテーション マップ、オプティカル フロー、シーン フローなどが含まれます。

組み込みのモーション プランニング アルゴリズムを使用して、ロボット ベースの動き (環境内でのナビゲーション) とロボット アームの動き (物体の把持と操作) を計画します。

視覚的なテクスチャ、マテリアルとダイナミクスの情報、およびオブジェクト インスタンスをランダムに置き換える組み込みのドメイン ランダム化。このようにして、トレーニングとテスト用のランダムな環境を無限に生成できます。

人間とコンピュータの相互作用システムは、ロボットの手動デモンストレーションを提供できます。

iGibson機能のいくつかの応用

私たちの論文では、iGibson の LIDAR シミュレーションを使用してエージェントが現実世界のシナリオに移行できるようにするなど、これらの機能の有用性を実証しています。

iGibson シーンの完全なインタラクティブ性は、ロボットの視覚を事前トレーニングするのに役立ち、それによってロボットの学習を加速し、複雑なインタラクティブ タスクを完了することができます。

iGibson でより複雑なロボットタスクを解決する

上記の iGibson 関数は、大規模なシーンインタラクションタスクのソリューションをより適切に開発するのに役立ちます。非常に重要な課題の 1 つはインタラクティブ ナビゲーションであると考えています。このタスクでは、エージェントは移動するだけでなく、環境を変更する必要もあります (例: ドアを開ける、障害物を取り除く)。環境の変更を必要とするこのタイプのナビゲーションは、実際のシナリオで最も一般的です。

iGibsonシミュレーション環境でこの課題を解決するために、エージェントの特定の行動(相互作用が必要な場合はロボットを使用し、移動が必要な場合はベースを使用し、ロボットとベースの両方を使用する[8])を決定する階層的強化学習アルゴリズムを開発しました。

また、我々は動作計画アルゴリズムを組み合わせたソリューションを提案している。このアルゴリズムは、次の相互作用が発生する場所を指定し、動作計画者はこのアルゴリズムに基づいて運動学的および障害物回避軌道を計算する[9]。

しかし、これは iGibson の可能性の氷山の一角に過ぎないと考えています。現在、私たちの研究室 SVL (Stanford Vision and Learning Lab) の多くのプロジェクトでは、iGibson を使用してさまざまなインタラクティブなタスクを提案し、解決しています。

要約する

シミュレーション環境は、研究者がロボット工学や AI のさまざまな問題を解決する上で大きな可能性を秘めていると考えています。 iGibson は、大規模なシーンインタラクションタスクのための完全にオープンソースのシミュレーション環境です。 iGibson がロボット工学と AI の研究に貢献できることを心より願っております。

注: Gibson について: iGibson は、心理学と認知科学の巨匠である James J. Gibson [1904-1979] にちなんで名付けられました。ギブソンは生涯を通じて、知覚に関する新しい概念を含む多くの画期的なアイデアを提案しました。

知覚は生態学的プロセスであり、つまり、主体はそれが位置する生態学的環境から切り離されるべきではない。

知覚は能動的なプロセスであり、つまり、知覚には相互作用と主観的な主導性が必要です。

当時、主流の理論では、知覚は受動的な受容と処理のプロセスであると考えられていました。ギブソンの見解は正反対で、エージェントは環境との相互作用において情報を受動的に受け取るのではなく、能動的に求めるというものである。ギブソンは「アフォーダンス」という概念も提唱しました。これは、ドアが「開く」機能を提供し、椅子が「支える」機能を提供するなど、環境がエージェントに行動の可能性を与えるというものです。私たちの同僚は、ギブソン氏の研究を次のように要約しました。「頭の中に何があるのか​​ではなく、頭の中が何なのかを問いなさい。」(頭の中の世界だけに焦点を当てるのではなく、自分が生きている世界に焦点を当ててください)。

<<:  三国志を例に挙げて分散アルゴリズムについて語るのって、気楽なことでしょうか?

>>:  ネットで人気のロボット犬がまた所有者が変わる!ソフトバンクがボストン・ダイナミクスを格安で「売却」、現代自動車がロボット分野で大躍進

ブログ    
ブログ    
ブログ    

推薦する

Python による階層的クラスター分析

[[334729]]機械学習を行う際には、データのクラスター分析を行う必要があることがよくあります。...

AIのエネルギー消費は高すぎるため、マイクロソフトはデータセンターの電力供給に原子力発電の利用を検討している

9月26日のニュース: ここ数か月、マイクロソフトは人工知能 (AI) 事業の開発を加速させています...

...

人工知能は人間のキャリアにどのような影響を与えるのでしょうか? 11のトレンド予測はこちら

置き換えられるというよりは、スキルの反復の方が心配です。 2017年は、人工知能が世界中で大きな注目...

人工知能とビッグデータの隠れた危険性とは何でしょうか?

データの不足からデータの豊富さへと、近年利用可能なデータの量は飛躍的に増加し、ビッグデータはどこにで...

インテリジェント車両認識技術がスマートシティへの道を開く

著者:Chris Kadoch 氏は Rekor Systems の最高技術責任者です。 [[376...

Google、チャットボットデータ分析プラットフォーム「Chatbase」の開設を発表

[[210402]]アメリカのテクノロジーブログ「VentureBeat」によると、11月17日、G...

...

機械学習の問題に適した事前トレーニング済みモデルを選択する方法

[[264482]]この記事では転移学習とは何か、どのように使用するのかを簡単に紹介します。転移学習...

AIと天気予報が出会うとどんな火花が散るのでしょうか?

SF作家の劉慈欣はかつて、自身の小説の中でこのような天気予報を描写した。小説の主人公は気象大学を卒...

...

ネットワーク管理における人工知能の役割

AI の主な利点の 1 つは、従業員を日常的な単純作業から解放することです。 AI は、ネットワーク...

知能ロボットの主要技術:製造分野の知能化を推進

国家発展改革委員会から最近明らかになったところによると、インターネット、ビッグデータ、人工知能と実体...

...