触覚は人間が相互作用を調整する主な方法の 1 つです。触覚を通じて知覚される触覚は、人間が物体の大きさ、形状、質感、温度などの特性を評価するのに役立ちます。さらに、触覚は物体の滑りを感知するために使用することができ、それによって人間の身体に対する理解が深まります。触覚は、圧力、振動、痛み、温度などのさまざまな感覚情報を中枢神経系に伝達し、人間が周囲の環境を認識し、潜在的な危害を回避するのに役立ちます。研究によれば、物体の材質的特徴や詳細な形状を処理する上で、人間の触覚は視覚や聴覚よりも優れていることが分かっています。 人間と同様に、ロボットのタッチ センシングは、物体の重さや硬さ、触ったときの表面の感触、接触したときの変形、押されたときの動きなどによって決まる、現実世界の物体のインタラクティブな動作を理解するのに役立ちます。ロボットに高度なタッチセンサー、つまり「触覚センシング」システムを装備することによってのみ、ロボットは周囲の環境を認識し、潜在的に破壊的な影響から遠ざかり、手の操作などの後続のタスクに関する情報を提供できるようになります。しかし、現在のロボットのインタラクティブ技術システムのほとんどは、触覚感知技術を効果的に応用していないため、不正確で不安定な動きや「不器用な」インタラクションプロセスが生じ、インタラクティブ能力や認知能力が大きく制限されています。 この記事では、人間とロボットの触覚感知の問題に焦点を当てます。まず、人間の触覚の生理学と符号化、そして触覚データの伝達などのタスクにおけるその重要性について説明します。次に、人間の触覚の分析に基づいて、ロボットの「触覚センシング」システムの構築、特に触覚知覚の方法と応用について説明します。最後に、特定のアプリケーションシナリオにおけるロボットへの触覚センシング技術の導入に焦点を当てた 2 つの記事を詳細に分析します。 1. 人間の「触覚」 まず、人間の触感とは何かを分析してみましょう。人間の「触覚」には、「皮膚感覚」と「運動感覚」という 2 つの主なサブタイプがあります。これら 2 つは、主に感覚入力の部位に基づいて区別されます。皮膚感覚は皮膚に埋め込まれた受容体から感覚入力を受け取りますが、運動感覚は筋肉、腱、関節内の受容体から感覚入力を受け取ります。研究者らは、これら 2 つのサブタイプに基づいて、皮膚感覚、運動感覚、触覚の 3 つの感覚システムを区別し、定義しました。このうち、皮膚系は刺激との物理的接触を伴い、皮膚の受容体と中枢神経系(CNS)の関連する体性感覚領域を介して体の外表面の刺激を知覚します。運動感覚系は主に、筋肉、関節、皮膚からの求心性情報と、脳が利用できる筋肉効率との関連接続から、静的および動的身体姿勢(頭、胴体、手足、エンドエフェクタの相対的な位置)に関する情報を提供します。触覚系は、皮膚と運動感覚系から物体や出来事に関する重要な情報を利用します。 人間の触覚は、体全体に異なる密度で分布する多数の受容体(圧力/振動の機械受容器、温度の熱受容器、痛み/損傷の痛覚受容器など)を通じて、外部刺激の空間的・時間的知覚を処理します。機械的刺激に対する反応は、皮膚のさまざまな深さに埋め込まれた機械受容器によって媒介されます。これらの受容体の分類、機能、位置を図1に示します[1]。これらの受容体は、受容野(受容体が反応する体の領域の範囲)と適応率が異なります。高速適応 (FA) 受容体は、初めて刺激されるとすぐに活動電位のバーストを生成します。対照的に、緩慢順応(SA)受容体は、刺激が受容野に接触している間ずっと活性です。熱刺激に対する反応は、皮膚内の別々の「熱い」および「冷たい」温度受容器集団によって媒介されると考えられています。さらに、科学者たちは、試験管内および生体内で人間の皮膚サンプルの研究を行い、外部刺激に対するさまざまな受容体の反応が、本質的に熱電的および圧電的であることを発見しました。 図 1. (a) さまざまな機械受容器の物理的位置と分類を示す無毛皮膚の断面。(b) 指先から脳の体性感覚領域への触覚信号の伝達。(c) 接触点から脳への触覚信号の伝達プロセスにおける機能イベント。簡単にするために、信号の流れは一方向です。 皮膚が刺激されてから知覚が起こるまでの間に、さまざまな複雑な機械的、知覚的、認知的現象が起こります。図 1 はイベントのシーケンスの例を示しています。皮膚が物体に接触すると、皮膚は表面に沿って同じ局所的な輪郭を維持し、その結果、多数の機械受容器(受容器の一種)に変形が投影されます。したがって、各機械受容器は物体の小さな部分を表すことができ、閾値を超える刺激に反応して生成される活動電位電圧パルスのピークとして時空間触覚情報をエンコードします。次に、刺激の振幅が一連の活動電位に変換されます。これは、アナログ/デジタル コンバーターを使用してアナログ信号をデジタル化してエンコードするプロセスに似ています。 時空間的制約と機械的刺激に対する感受性は、人間の物体認識能力や方向感受性などに直接影響を及ぼします。皮膚感覚のパターン認識能力は、皮膚処理の初期段階での時空間フィルタリングによる情報損失またはぼやけの程度を定量化するため、空間的および時間的感度によって制限されます。この効果は、ロボットの触覚感知の「クロストーク」限界を定義するために使用できます。 人間は触覚を通じて一般的な物体を識別するのが得意であり、物体の材質特性や形状などの手がかりは識別結果にとって非常に重要です。皮膚感覚と運動感覚はすべて、これらの合図を感知するのに役立ちます。しかし、人間の触覚知覚は、物体が大きく、指の接触面積(7〜12 mm)を超える場合には特に、物体の形状よりも材質特性を知覚するのに適しています。しかし、指の接触領域内の物体の形状検出は、機械受容器の重要な機能です。 さらに、粗さや滑らかさも、もう一つの重要な知覚的次元です。神経生理学的研究では、触覚の粗さの知覚は SA 求心性神経の発火の空間的変化によって正確に予測され、したがって複数の触覚要素の関数であることが示されています。 物体の滑りの検出は、皮膚受容器による動きのエンコードとして考えることができます。表面と皮膚の間の滑り、つまり相対的な動きは、粗さ、硬さ、形状を感知するために重要です。誤差信号としての滑りは、人間の握力制御において重要な役割を果たします。物体が表面に接触する際の触覚フィードバックは、物体を支える力の知覚に影響を与えます。大きさだけでなく、力の方向も、不規則な形状の物体を望ましい方向を維持しながら扱う上で重要です。運動制御において、触覚情報は、手を伸ばす・掴む動作の実行を制御する上で重要な役割を果たします。物体を正確に掴むには、指の筋肉の活動の強さだけでなく、さまざまな掴み段階のタイミングや持続時間も正確に制御する必要があります。触覚知覚が欠如すると、握る際の指を開く段階の持続時間が長くなり、握る動作の制御が損なわれます。最後に、人間は皮膚という媒体を通じて接触による圧痕をストレスや緊張に変換します。人間の皮膚は多層構造で、非線形、不均質、粘弾性があり、変形可能な筋肉と脂肪のシステムによって支えられた複雑な構造です。皮膚の層によって硬さは異なります。これらの特性により、皮膚の力学は触覚知覚において重要な役割を果たします。 しかし、人間は完全な多層統合システムであり、「触覚」は孤立したものではないことを指摘しておく必要があります。人間は、触覚、視覚、聴覚など複数のセンサーからの情報の組み合わせを通じて刺激を認識します。異なる感覚様式の入力効果は矛盾する場合があります。このとき、人々はこれらの異なる感覚様式によって入力された信号の関係と正確性を判断する必要があります。場合によっては、人間の知覚はさまざまな感覚からの入力信号の組み合わせになります。単一の入力モダリティのみが関与している場合でも、物体に対する人間の知覚は、そのサブモダリティの複合的な効果によるものである可能性があります。複数のソースからの感覚情報を組み合わせて統合する能力は、さまざまな感覚様式からの情報を最大限に活用し、感覚推定の信頼性を向上させるため、堅牢な人間の知覚を実現するための鍵となります。 2. ロボットの「触覚センシング」 ロボットの触覚センシングシステムは、人間の触覚に対応し、接触を通じて物体の特定の特性を測定できる装置またはシステムです。一般的に言えば、ロボットの触覚知覚は、事前に定義された領域内の力の測定に関連しています。ロボットの応用効果を高めるには、ロボットが周囲の環境を認識し、潜在的な破壊的な影響から遠ざかり、後続のタスク(手操作など)に効果的な情報を提供できるように、高度な触覚認識システムもロボットに装備する必要があります。 ロボット触覚センシングには多くの応用シナリオがあります。たとえば、操作タスクでは、触覚情報は、接触点推定情報、表面法線と曲率などのロボットの制御パラメータとして使用されます。把持タスクでは、法線静的力が測定されて物体の滑りが検出されます。たとえば、接触力測定は、ロボットが安定した把持を維持するために重要な把持力制御を支援するために使用されます。ロボットの器用な操作タスクでは、適用される操作力の方向を決定することも重要です。たとえば、法線力と接線力のバランスを調整することで、把持の安定性を保証できます。 図2は指先、指骨、手のひらに触覚センサーを備えたロボットハンドの例を示しています[3]。高い空間解像度と時間解像度を備えた触覚センサーは、豊富な触覚情報を手に提供し、未知の物体の探索、ツールの使用、手の操作などの複雑なタスクを実行するロボットを支援するために使用できます。 図2. 影の付いた器用な手(左)は触覚皮膚(中央)で覆われており、複数の場所で触覚情報を提供している(右のレンダリングでは緑色で強調表示されている)[3] 触覚センサーは、腕、胴体 (図 3 の NAO ロボットの例)、脚、足など、ロボットの体の他の部分に埋め込むこともできます。これらの部品からフィードバックされる触覚情報は、ロボットが障害物を回避したり、人間と機械の相互作用を完了したり、移動したりするのを支援することに密接に関係しています[3]。 図3. NAOヒューマノイドロボットは、振動、温度、力、近接情報を提供するマルチモーダル人工ロボット皮膚で覆われている[3] 文献[2]では触覚センシングを導入し、従来の視覚と聴覚と組み合わせました。ロボットの知覚-制御-行動アーキテクチャシステムを図4に示します。このうち、左の図は触覚知覚プロセスが機能ブロックに分割され、さまざまなレベルでの感知プロセス、知覚、制御動作を記述していることを示しています。図1の右側には、これらの機能ブロックに対応するハードウェアの構造ブロックが示されている。センシングプロセスは、外部刺激(圧力、振動、熱刺激など)を触覚センサーのセンシング要素の変化に変換します。データは、組み込みのデータ処理ユニットを使用して収集、調整、処理され、その後、より上位の認識層 (Perception) に送信されます。知覚層のタスクは、形状や材質特性など、知覚的にインタラクティブなオブジェクト特性を生成するためのモデルを構築することです。知覚段階では、触覚は視覚や聴覚などの他の知覚モードと統合されることもあります。最後に、制御層(アクション)では、ロボットは統合された知識に基づいて制御コマンドを実行し、コントローラーを使用してアクションを完了します。 図4. ロボット触覚センシングシステムの階層的機能ブロック図(左)と構造ブロック図(右)[2] 2.1 センシング センシング層は、触覚センシングシステム全体の中で最も低いレベルの処理構造であり、センシングプロセスに対応するボディ部分に応じて、主に次の3つのカテゴリに分類されます。 単一点接触センサー(単一触覚セルに類似):このタイプのセンサーは、物体とセンサーの接触を確認し、接触点における力または振動を検出するために使用されます。センシング方法に応じて、シングルポイント接触センサーは、1) 接触力を測定する力センサー、2) 接触中の振動を測定するバイオニックウィスカー (動的触覚センサーとも呼ばれます) に分類できます。 高空間解像度触覚アレイ(人間の指先に似ています):このタイプの触覚センサーは、光ファイバー触覚センシング素子に基づく触覚アレイ、MEMS 気圧計に基づく触覚アレイ センサー、組み込みカメラに基づく指先センサーなど、触覚センシング研究で最も広く使用されているセンサーです。 大面積触覚センサー(人間の腕、背中、その他の体の部分の皮膚に似ています):指先の触覚センサーとは異なり、このタイプのセンサーでは必ずしも高い空間解像度は必要ありません。さらに重要なのは、十分な柔軟性があり、ロボットの湾曲した体の部分に接続できることです。 2.2 知覚 触覚知覚とは、触覚情報を解釈・表現することで物体の特性を観察するプロセスを指し、ロボットの触覚センシングにおける重要な研究テーマでもあります。図 2 からわかるように、知覚は感知層の上に位置し、制御層に有用なタスク指向の情報を提供します。触覚センサーの急速な発展に比べ、触覚センサーによって生成される情報(触覚知覚)に対する理解は未だ未発達です。触覚知覚に関する現在の研究には、主に物体認識、形状認識、姿勢認識、知覚融合が含まれます。 [物体認識] 物体の表面の材料特性は、ロボットが周囲と効果的に相互作用するために必要な最も重要な情報の 1 つです。視覚は、物体の材質を識別するために常に最も一般的に使用される方法でした。しかし、視覚だけでは既知の表面材質を識別することはできますが、その物理的パラメータを推定することはできません。この点では、材料特性を判断するために触覚を導入する必要があります。触覚による物体認識を支援する情報には、物体の表面の質感や物体の硬さなどが含まれます。 [形状知覚] 形状認識とは、ロボットが物体の形状を認識または再構築する能力です。形状認識の目的は、正確な形状のキャプチャ、形状要素または全体的な輪郭の分類など、ロボットのタスクによって異なります。形状認識は、ロボットが掴んだり手を動かしたりするなどのタスクを実行する上で非常に重要です。物体の形状について得られる情報がより完全であればあるほど、ロボットはより正確に把持軌道と操作戦略を計画し、実行できるようになります。 古典的な形状認識研究は主に視覚的手法に基づいています。ただし、遮蔽物があったり照明条件が悪い場合、ロボットは視覚的な形状の特徴を観察できません。一方、触覚物体の形状知覚はこれらの要因の影響を受けず、センサと物体との相互作用を通じて物体の詳細な形状を判断することができます。さらに、近年の高性能触覚センサーの量産化により、触覚を通じて物体の形状を認識するアルゴリズムの推進がさらに促進されています。 形状認識アルゴリズムには、主にローカル形状認識とグローバル形状認識の 2 つのカテゴリが含まれます。局所的な形状知覚は人間の皮膚の触覚に似ていますが、全体的な形状知覚は、指先の範囲を超えた輪郭の知覚など、皮膚感覚と運動感覚の複合フィードバックの結果です。一部のロボットには、関節の固有受容器などの内部センサーが組み込まれており、指やエンドエフェクタの位置と動きを取得するためによく使用され、これらの指やエンドエフェクタとローカルな特徴を組み合わせてオブジェクトを認識します。 [ジェスチャー認識] ロボットが物体を操作するには、物体の姿勢を正確かつタイムリーに推定する必要があります。通常、オブジェクトのポーズは、ロボットのエンドエフェクタまたはグローバル座標系に対する位置と方向を使用して記述されます。物体の位置の推定にわずかな誤差があっても、物体上のロボットの指の位置が不正確になり、把持の安定性に関する誤った仮定が生じ、操作タスクの成功に影響する可能性があります。したがって、物体の姿勢を堅牢かつ正確かつ高速に認識することは、複雑な把持および操作システムにとって非常に重要な部分です。 ロボット工学において物体の姿勢を推定する最も一般的なアプローチは、コンピューター ビジョンを使用することです。しかし、ロボットが操作対象物に近づくと遮蔽が発生し、視覚推定の効果に影響を及ぼします。この問題を解決するために、研究者たちはロボットが触れた物体の姿勢を判断できるようにする触覚感知システムを導入した。センシング層のさまざまな入力に応じて、ジェスチャ認識方法には主にシングルポイント接触センサーと触覚センサーアレイが含まれます。 [知覚融合] ロボットは、非構造化環境で動作するために、さまざまな感知手段を備える必要があります。これらのさまざまなソースからのデータを統合して、より意味のある、より高レベルの状態表現を作成することも、認識プロセスの一部です。複数のセンサーを使用すると、よりタイムリーで低コストの情報を提供できます。さらに、センサーは異なる速度で動作するため、それらの情報を並行して処理することができます。 環境との相互作用を必要とするタスクでは、触覚知覚を他の知覚方法と組み合わせて、タスク完了の精度と堅牢性を向上させることができます。典型的な知覚融合方法には、触覚知覚と視覚、運動感覚の手がかり、トルクと距離の感知などの組み合わせが含まれます。 2.3 制御層(アクション) 最後に、制御層の観点からロボットにおける触覚センシング技術の応用について説明します。豊富な触覚情報は、触覚探索、把持、手の操作、運動、道具の操作、人間とコンピュータの相互作用、無意識の操作など、触覚に関連するタスクを実行するためのさまざまな可能性を提供します[3]。 [触覚探究] 触覚探査は、触覚を通じて未知の物体の特性を抽出する効果的な方法です。人間は、横方向の動き、圧力、閉鎖、輪郭追跡、物体の部分的な動きのテスト、アフォーダンス テストなど、さまざまな探索方法を通じて物体に関する知識を獲得します。研究者たちは、こうした人間の行動にヒントを得て、表面形状、材料特性、形状など、ロボットの制御パラメータを推定するためのさまざまな触覚ベースの探索方法を開発してきました。 ロボットの触覚探索における触覚センシングのもう 1 つの代表的な応用は、触覚サーボ制御です。これは、単一または複数の接触領域で取得された物体関連情報を通じて、ロボットと物体との間の望ましい接触モード (接触モードとは、接触位置と力を指します) を決定します。たとえば、触覚アレイを使用すると、スライドや回転の動作を実行して物体の表面の特徴を探索し、触覚パターンの偏差を最小限に抑えて動作を制御できます。このアプローチは、探索用のロボットハンドを制御するためにも使用できます。コントローラは、ハンドの複数の接触領域を使用して未知の物体の表面を探索し、ロボットの把持能力を向上させます。 [非理解的操作] 無意識の操作とは、主に、明示的な把持タスクなしでのロボットと物体間の相互作用を指します。このタイプの操作には、押す、突く、打つ、引っ掛ける、回転する、弾く、投げる、握る、回転する、打つなどが含まれます。無意識の操作における触覚知覚は、接触プロセスをモデル化して低レベルのフィードバック制御を提供するだけでなく、動作状態を監視してオブジェクトのプロパティを推定するためにもよく使用されます。 【掴む】 把持はロボット操作の中で最も広く研究されている側面であり、ロボットに把持した物体の制御を提供し、ロボットツールの使用に共通する前提条件です。触覚探索と同様に、触覚把握は物体の特性を抽出するための重要な方法です。触覚知覚は、分析把持コントローラ、データ駆動型把持合成、把持結果検出、再把持などのコントローラでも使用されます。解析的把持コントローラは、正確な接触位置、法線、および力の推定値に基づいて、把持品質メトリックを最大化する把持姿勢を計算します。データ駆動型のアプローチでは、ロボットは以前の把持からの接触情報と物体情報を使用して把持の質を予測し、再把持の姿勢を計算します。物体を掴んだ後は、触覚フィードバックを使用して接触力を制御し、初期の滑りを検出できます。触覚データを使用して初期滑りを検出または予測することにより、ロボットは物体と指の摩擦係数を明示的に推定することなく、自動的にグリップ力を増加させて大きな滑りを回避することができます。 【手の中での操作】 ハンドマニピュレーションでは、ロボットハンドの器用さを利用して、掴んだ物体の状態を変化させます。このとき、ロボットが一般的に使用するコントローラには、多指ロボットハンドやグリッパーなどがあります。接触を維持しながら局所的な再配置を実行するには、まず物体を正確に掴み、次にロボットの指先を使って移動させます。触覚センシングは、接触および物体情報を推定し、指と物体との接触を能動的に制御するために使用されます。触覚センシングは、接触センサー情報からロボット指の望ましい関節速度へのマッピングを直接学習するためにも使用できます。 物体をさらに移動させるには、ロボットは手の中の物体が落ちないようにしながら、指を使ってさまざまなグリップを切り替える必要があります。これを実現するには、指が触覚センシングを使用して手と物体の間の隙間や物体との接触を検出し、物体の表面上を効果的に滑ることができるようにする必要があります。さらに人間を模倣するために、触覚指スリーブを被験者の手に取り付けて、触覚信号によるスライド動作のデモンストレーションを取得し、ロボットを制御することができます。 [ツール操作] ツール操作は、多くのロボット操作タスクの共通コンポーネントです。ツール操作に触覚知覚を導入するための重要な前提条件は、タスク接触がオブジェクトと手持ちツールの間にある必要があることです。したがって、ツール自体に計測機能が備わっていない限り、接触点は触覚センサー上に直接配置されません。触覚センシングは、ツールへの接触の検出、操作中のツールのツールチップやその他の重要な側面の特定、タスクの進行状況の監視、操作の失敗の検出などのタスクに使用できます。触覚フィードバックは、接触点の方向と力を推定して維持し、その後の制御タスクを実行するためにも使用できます。触覚センシングは、双腕デバイスで把持ツールの動作パラメータを推定するためにも使用できます。 さらに、触覚知覚は未知のツールを制御したり使用したりするためにも使用できます。この種のタスクにおける主な課題は、特定のタスクの触覚アクション情報を計算するのに直接使用できる運動学または動的操作モデルが存在しないことです。この時点で、操作コマンドを暗黙的に計算する効果的な方法として、データ駆動型アプローチを導入できます。 【移動】 触覚知覚は、操作タスクを完了するのに役立つだけでなく、ロボットの動きを誘導および実装するのにも非常に効果的です。ヒューマノイド、四足動物、六足動物、ヘビなどの地上車両や歩行ロボットはすべて、移動するために環境との接触を利用する必要があります。触覚知覚は、これらのタスクを達成するためにロボットの状態と環境の地形の推定値を提供します。たとえば、車輪付きロボットは触覚センサーを使用して地面との接触を監視できます。車輪に内蔵されたマイクや加速度計からの振動信号を使用して、地形の種類を判定できます。 バランスを維持することは、ロボットが立ち上がったり歩いたりする能力の重要な部分です。バランスを維持するために、ロボットは触覚知覚を使用してサポートの接触位置を推定し、バランスを崩す可能性のある障害物やその他の障害を検出する必要があります。触覚知覚は、立っているときの触覚運動マッピングを学習するためにも使用できます。ロボットの歩行段階間の遷移は、通常、かかとが地面に接触するなどの接触イベントによってトリガーされます。このシナリオでは、触覚センシングを適用して、ロボットの足をどこに置くべきかを決定できます。地形の種類を推定することで、ロボットは適切な歩行を生成し、適切な脚コントローラーに切り替えることができます。 [ヒューマン・ロボット・インタラクション(HRI)] ロボットは、無生物や地形と相互作用するだけでなく、人間とも物理的に相互作用する必要があります。 HRI は、衣服の着脱、物品の受け渡し、協働ロボットとの安全なやり取りなど、幅広い用途に使用できます。これらのタスクでは、ロボットは相互作用する力が安全であり、発揮する力が人体に適応可能であることを保証する必要があります。 最新の HRI 研究の進歩は、触覚フィードバックから人間の潜在的な状態と意図を推測することを探ることです。たとえば、ハンドオーバー中に、ロボットは視覚と触覚のフィードバックを使用して、人間が適切なグリップを持ち、オブジェクトを受け取る準備ができているかどうかを判断できます。同様に、大きな物体を移動するなどの共同作業を実行する場合、ロボットは手首の力/トルク センサーを介して相互作用の力とトルクを測定し、それに応じて反応してタスクを実行します。 HRI は、タスクを実行するだけでなく、デモンストレーションからロボットに新しいスキルを教える際にも使用できます。このようにして、ロボットは力コントローラを使用して人間によって直接誘導されることができます。例えば、服を着ることは日常生活における基本的な作業であり、着替えロボットを開発することで、運動障害を持つ患者を支援することができます。ロボットは触覚情報を使用して調整し、人の姿勢を推定する際の誤差を減らし、着替えの補助をしながら人の輪郭や動きをリアルタイムで追跡することができます。 人間の触覚とロボットの触覚センシングに関するこれまでの議論に基づいて、一般的なロボットシステムにおける触覚センシングの設計の参考として以下のガイドラインを使用することができます[1]。 機能分割の多様化と分散受信機の出現により、接触力や硬度の検出、複数の接触パラメータを測定する触覚および熱センサなど、それぞれが特定の接触パラメータを最適な方法で測定できるさまざまな種類の小型センサをロボットに導入できるようになりました。 ロボットを設計する過程では、触覚センサーの空間解像度を体の部位に応じて分散させたり、配列したりすることができます。例えば、指先の場合は約 1 mm に設定でき、これは指先サイズの領域で約 15×10 要素のグリッドに相当します。手のひらや肩などの感度の低い部分の場合は 5 mm に設定できます。 センサーは高い感度と広いダイナミック レンジを備え、力の方向も測定できる必要があります。一般に、ロボットは現実世界のオブジェクトの事前モデルを持っていないため、これは重要です。 ロボット用に設計された触覚センサーは、素早く反応する能力を備えている必要があります。これは、ロボットの制御に触覚フィードバックを使用する場合に特に重要です。人工筋肉や運動感覚のみから得られる接触情報だけでは不十分であるため、ロボットアプリケーションの制御ループに触覚知覚を導入することが重要です。人間の皮膚にあるさまざまな機械受容器が反応する信号周波数範囲を使用して、センサーの応答時間要件を設定できます。一般的に、リアルタイムの接触の場合、各タッチ要素の応答速度は 1 ミリ秒である必要があります。 人間の場合、触覚データは直接脳に送られません。代わりに、人間の神経系の限られたスループットに対応するために、いくつかの処理が異なるレベルで実行されます。したがって、ロボットが中央プロセッサに送信する情報の量を減らすために、大規模な触覚アレイまたはモジュールでは、感知場所である程度の前処理(データの選択、ローカル計算など)を実行することが重要です。このようなアーキテクチャにより、「ロボットの脳」が解放され、よりスマートな作業を実行できるようになります。あるいは、システムを拡張して、ほぼ任意の数のセンサーを含めることも可能です。 センサーの弾性カバーは、皮膚に内側突起と乳頭突起を備えた構造を持つように設計できます。この構造は、センシング要素に応力を集中させることにより、弾性材料のぼやけ効果を補正することもできます。弾性材料の表面の乳頭状の隆起テクスチャにより、検出可能性が向上します。 皮膚は柔軟で物体に沿うため、バイオセンサーは物体の詳細な輪郭などの情報を取得できます。したがって、ロボットの足場は、温度、湿度、化学的ストレス、電界、突然の力などの過酷な条件に耐えられるように、強度、柔軟性、快適性、伸縮性、柔らかさを備えている必要があります。バイオセンサーは、ボディに分布している場合、ロボットリンク/コンポーネントの直径/厚さを大幅に増加させるべきではありません。 3。触覚検知技術の適用 3.1接着制御摩擦による産業用グリッパーの改善[4] 製造では、繊細なオブジェクトを効率的に処理することは困難な問題です。過度の把握力の適用を避けながら安定した握りを達成することは、精密な機器処理タスクのロボット操作を再導入する上で重要な目標です。たとえば、脆弱なアイテムを処理する場合、ロボットは、損傷を防ぐために把持されたオブジェクトに適用される力を最小限に抑える必要があります。たとえば、変形可能なオブジェクトを処理する場合、オブジェクトの形状または表面特性を維持するために、絞ることなくオブジェクトを把握する必要があります。 人間が同様の問題に対処する場合、オブジェクトの重量と最初の接触中に作成された摩擦特性の推定に基づいて、グリップをすばやく調整できます。これらの刺激に応じて、人間は最小限の力に加えて、適切な程度の安全クリアランスを適用して、滑らずに基本的な操作を実行することができます。この戦略により、人間は脆弱で変形可能なオブジェクトと効果的に相互作用することができます。対照的に、ほとんどのロボットは、繊細なオブジェクトを把握するために必要な最小の力を予測および維持するのが困難です。 専用のグリッパーやコントロールスキームを使用する従来の方法とは異なり、このペーパーでは、ヤモリのような方向性接着剤を産業用ロボットグリッパーと触覚センサーに取り付けて、繊細なオブジェクトのロボット処理のタスクを完了する解決策を提案します。著者は、ヤモリのグリッパーの顎に方向性のヤモリにインスパイアされた接着剤を統合し、非常に繊細なオブジェクトを把握し、小さなグリップ領域で大きな力のモーメントに抵抗することができました(図5を参照)。 図5。グリッパーパッドに配置されたヤモリにインスパイアされた接着剤を使用した産業用ロボットは、腐ったトマトを把握して操作できます。また、接触面の3/4のみを使用して、かなりのトルクを適用できます 3.1.1メソッド 一般に、摩擦には2種類の摩擦があります。1つは分子の魅力とヒステリシスによるもので、もう1つは分子が互いに衝突するためです。前者は、分子スケールの実際の接触領域に依存する接着制御要素です。後者は、通常の力に依存する負荷制御コンポーネントです。ほとんどの硬い材料の場合、前の部分は無視でき、後者の部分は最大摩擦を提供し、適用された荷重とともに直線的に増加します。詳細については、次の式を参照してください。 その中で、F_Tは接線力を表し、F_Nは正常な力を表し、μは摩擦係数を表します。 Gecko型接着剤の場合、領域に依存する部分は通常、通常の力の下でも支配します。静的条件下では、接着剤の予想される接線力は正常な力です。 ここで、p(x、y)は接触の特定の位置での圧力を表し、C_1およびC_Aは定数、Aは接触面積です。同様に、静的条件下では、指先の表面に垂直な軸についての瞬間は次のとおりです。 ここで、r = [x、y]は、Aの圧力中心からAの各要素へのベクトルを表します。この作業は方向性接着剤を扱うため、一定のC_Aは接着力が適用される角度の関数としての接着剤の好ましい荷重方向を表します:C_A(φ)。具体的には、図6は方向接着剤の2つの可能な配置を示しています。 図6。その重心からオブジェクトを拾うロボットのイラスト。下:a)均一に整列したまっすぐなウェッジ(θ= 0°)およびb)ウェッジが±θ度回転したヘリンボーンパターンをカバーする指とトルク。挿入図c)は、b)に合わせてヘリンボーンパターンに配置されたパッド上のヤモリの材料の詳細を示しています。 グリッパーが、質量の中心をつかんでオブジェクトを持ち上げるときなど、一方向に接線力を適用する必要がある場合、リフティング方向に平行な方向の接着剤を整列させることが最も効果的なアプローチです。ただし、操作には、グラストオブジェクトを複数の軸の周りに回転させることがよくあります。さらに、オブジェクトは不均一であるか、中心線に沿ってそれらを把握することが不可能な場合があります。したがって、図6に示すように、単一のマニピュレーターによる把握の試みは、通常、オブジェクトとの接触点に関する瞬間を導入します。ただし、グリップ力を最小限に抑えようとすると、滑りが発生する可能性があります。瞬間は、回転中心の周りに円形せん断力パターンを作成しますが、そのほんの一部のみが接着剤の最も強い方向と整列しています。 上記の効果を補うために、小さな領域指向の接着剤を複数の方向で配置できます。図7は、接着剤がφ= 0で最大強度を持ち、直交方向φ=±90°で最小強度を持っていると仮定して、いくつかの異なるモードの予想される結果を示しています。グラフのカラースケールは、φに対して線形に分布しています。これは、接着剤の好ましい方向と実際の荷重方向の角度として定義されます[図7(d)を参照]。 図7。純粋な反時計回りのトルク(AC)または純粋な上向きの接線力(BD)を生成する場合のストレート(AB)および方向(CD)Gecko接着設計の効率プロットの比較。半透明の矢印は、ヤモリの接着剤の好ましい荷重方向を示しています また、図7から、θは通常、指先のサイズに応じて調整する必要があることもわかります。さらに、接線力補償に関係なく、長方形の表面での最適なモーメント補償のために、ウェッジは次のように方向付けられる必要があります。 ここで、H_FとW_Fは、それぞれ指先の接触領域の高さと幅を表します。それに応じてθを選択すると、ウェッジが指先の主な斜めと平行になることが保証されます。 3.1.2実験分析 この論文では、図8に示す実験装置を使用しています。 Robotiq 2指のグリッパー85グリッパーとFT-300の力/トルクセンシング手首を装備した腕を備えたUR-5ロボット。各グリッパーの指には、7×4の触覚センサーアレイとパターン化された方向性接着肌があります。これらのセンサーからのデータは、ロボットアームのエンコーダーからの位置および速度情報と組み合わされて、ダイナミックと静的の両方のロボットの把握の完全な画像を提供します。彼らの実験で、著者は、上記のマイクロウェッジの斜めの「ヘリンボーン」パターンを実現するために、一連の特別な結合表面を作成しました。 図8。ロボット把握実験デバイス 実験中に、複数のヤモの接着パネルが作成され、パネルの2つの半分の方位角が7.5°増分で変化し、θ= 0°からθ= 45°、つまり、完全に垂直の位置から力の線(力線)まで45°の位置から離れた位置まで変化しました。次に、Gecko接着剤で覆われたパネルの各セットを使用して、さまざまな実験を実施しました。実験では、ロボットアームの2つのモーションモードが設計されました。アクリルプレートの公称表面接触は、25%、50%、75%、および最後の100%のカバレッジ(手動測定と事前にプログラムされたグラブポイントによって調整)に徐々に増加します。 実験は、厚さ約4分の1インチのアクリルプレートから始まりました。実験的要件は、指定された通常の力レベルで接着剤でコーティングされた2本指のクランプでつまむことです。実験中、クランプの閉鎖値を調整することにより、クランプ力を変更できます。実験では、著者らは、利用可能なセットポイントの離散化により、飽和アクチュエータとセンサーの前に4つの決定された異なる正常な力のみが変化することを発見し、そのうち3つだけが低圧範囲に調整できることを発見しました。この練りが完了した後、最初の動きモードは、硬く接続されたアクリルプレートを引き上げて、指先の結合面に純粋なせん断力を発揮することです。動きの2番目のモードは、接触面の重心の周りを回転することで、純粋なモーメントが指先で接着剤に適用されます。 この実験は、触覚アレイの単位nの数に対応する通常の応力とせん断応力の離散化結果を与えます。各領域A_Tには次のとおりです。 ここで、p_iは各圧電センサーの圧力を表し、f_tは手首の力モーメントセンサーによって測定される接線力を表します。図9(a)は、各セットでテストされたパターン接着剤の最大せん断応力と正常応力の関係を示しています。最大接線の支持体は通常、釣りのないくさびです(この場合、θ=φ= 0°)。フィッティングパワー関数は、次の傾向を明確に示しています。θの増加に伴い、最大許容せん断応力は減少し続け、ウェッジの方向を徐々に変えます。さらに、触覚画像の標準化された中央トルクは、次の式で与えられます。 ここで、{x_i、y_i}は、質量の重心に関する圧電センサーIの座標を表します。上記のフォーミュラでは、分子は、手首の総測定トルクへの各圧電センサーの寄与の合計であり、分母は圧電センサーと重心の間の平均距離です。分子は、異なる接触面積値を持つデータ間のより良い比較を可能にするために標準化されています。標準化されたトルクは、次の式から導き出されます。 その中で、Mは力のトルクセンサーによって測定されるトルクです。図9(b)は、異なるθ値の最大正規化モーメントと触覚グラフの正規化された中心モーメントとの関係を示しています。前のケースとは対照的に、最大許容トルクはθで増加します。実際の接触面積(A_R)の圧力に対する依存性を考慮すると、曲線には非線形特性があります。 図9。ロボットキャプチャ実験結果。 (a)動き1:最大せん断応力(τ)は、異なるθ値での正常応力(σ)の関数です。ここで、各angle.sデータセットについて、パワー関数(y = ax^b)が実験データと一致して、(b)モーション2:異なるθ値の正規化正規応力(μ)の関数としての最大正規化トルク(m)を示します。 3.1.3要約 この記事の作業から、クランプのパフォーマンスを事前に理解し、触覚センシングデバイスを導入することにより、グリップ力の正確な適用をGecko接着剤の接触性能の改善と効果的に組み合わせることで、クランパーコントローラー自体の要件を削減できることがわかります。たとえば、小型のコントローラーを使用して、ロボットアーム上のツールを軽くて安全にします。この変更は、共同ロボットの実用的なアプリケーションに非常に有益です。 その後の作業に関して、著者は3つの主要な方向性があると考えています。1つ目は、この実験で観察された傾向がまだ有効かどうかを確認するために、他の材料と粗さをテストする必要があります。 3.2ハンドオブジェクトは、連絡先フィードバックとGPU加速ロボットシミュレーションを介して追跡をポーズします[5] ロボットは、ハンドヘルド姿勢の安定した推定のおかげで、敏ility性で操作できます。ただし、深刻な閉塞の問題により、ロボットが手でオブジェクトを保持して操作するときに、オブジェクトの姿勢を追跡することは困難です。ロボット操作中のハンドヘルド(手元の)ターゲット追跡の問題を解決するために、このペーパーでは、接触フィードバックを持つオブジェクトのポーズを追跡するためのサンプルベースの最適化フレームワークを備えたフォワードダイナミックモデルとして、GPUアクセラレーションの高忠実度物理シミュレーター[6]を提案します(図10を参照)。この方法は、ロボットコントローラーを、多くのロボットの状態シミュレーション操作を並行して実行し、それぞれ異なる物理パラメーターと摂動オブジェクトポーズを持つGPUアクセラレーションの物理シミュレーターに送信します。観測コスト(現実世界からの接触フィードバックやシミュレーションなど)をサンプルベースのデリバティブフリーオプティマイザーに渡し、すべてのシミュレーションの状態とパラメーターを定期的に更新して、現実世界をよりよく一致させます。この方法は、最終的に、現在のターゲットのポーズ推定として最終的に最低コストシミュレーションがポーズをとることを選択します。 デリバティブフリーの最適化は、最良の解決策を見つけるために古典的な意味で微分情報を使用しない数学的最適化の分野です。時には、目的関数Fの導関数に関する情報は利用できない、信頼できない、または非実用的です。たとえば、この記事では、サンプリングを使用して、関数値を更新および最適化します。 図10。ハンドヘルドターゲット位置追跡フレームワーク 3.2.1メソッドの簡単な説明 最初に、著者は、オブジェクト操作中にマニピュレーターのハンドヘルド姿勢を追跡する問題を定義します。ある時点で、オブジェクトのポーズはp_tとして表されます。著者は最初に物理ダイナミクスモデルS_(t+1)= f(s_t、u_t、θ)を定義します。ここで、s_tは世界状態(剛体の位置と速度、関節体の関節角の大きさ)を表します。 シミュレーションモデルFの場合、初期値P_0、S_0、およびθが与えられた場合、シミュレーションのロボットのアクションシーケンスU_Tのみを再生して、ポーズを推定する必要があります。ただし、不完全なフォワードモデルのため、ポーズの初期値は騒々しいものであり、観察フィードバック(触覚的知覚の方法)を導入することでポーズの推定を改善できます。 Dをロボットジョイントの数を表し、Lをそのコンタクトセンサーの数を表します。観測ベクトルO_Tは、ロボットQ_Tジョイント位置構成値のシリーズ結果として定義され、次の定義は次のとおりです。R_T(指先に位置する)、誘導接触の力ベクトルC_T、接触表面D_Tの翻訳方向のユニットベクトル、および接触表面R_Tの回転滑り方のバイナリ方向。一般的なハンドヘルドのポーズ推定の問題は次のとおりです。現在および過去の観測値O_(1:T)、ロボットコントローラーU_(1:T)、および初期ポーズP_0を考えると、現在のオブジェクトの最も可能性の高いポーズP_Tを見つけます。完全なプロセスについては、アルゴリズム1を参照してください。 まず、オブジェクトの最初のポーズ推定器を使用して、オブジェクトの最初のポーズ推定器を推定します。次に、初期ターゲットのポーズ推定値とロボット構成値を考慮して、K並列シミュレーションが初期化され、実際のロボットアクションU_TがステップT内ですべてのKシミュレーションにコピーされます。コスト関数cを考えると、現在の時間tの最良のポーズ推定は、i番目のシミュレーションのポーズ(P_T)^(i*)です。ここで、Ithシミュレーションは、特定の過去の時間ウィンドウで最も低い平均コストを生成するシミュレーションです。 コストを使用して、シミュレーションとそのパラメーターを定期的に更新して、実際のロボットオブジェクトシステムとより適切に調整できるようにします。目的のコスト関数は、オブジェクトのハンドヘルド操作の違いをもたらすオブジェクトに関連しているため、低コストはより良いポーズ推定に対応します。この記事で使用されるコスト関数は次のとおりです。 コスト関数における最初の用語の役割(シミュレートされた環境と実際のロボット間のQ_Tを比較)は、ロボットの手に接触するオブジェクトによって課される衝突制約に応じて、同じU_Tを共有してもQ_Tが異なる可能性があるということです。上記の式では、接触センサーの力の値がしきい値よりも大きい場合、センサーは接点状態にあります。 I-Thシミュレーションの第1コンタクトセンサーのバイナリ接触状態が実際の接触センサーの接触状態と一致する場合、α_(i、l)は1、そうでなければ、α_(i、l)は0です。同様に、I-THシミュレーションの最初の接触センサーと実際の接触センサーが翻訳スライドが発生するかどうかに一貫している場合、β_(I、L)は1、そうでなければ、β_(I、L)は0です。 γ_(I、L)は、回転スライドの同様の状況を表しています。各用語の対応する平均量が1に概算されるように、コスト期間の重みw_sを設定します。 ただし、ターゲットポーズ推定には2つの不確実性があります。1つ目は、視力ベースのポーズ推定器の初期ポーズ推定P_0は騒々しいです。 最初の問題を解決するために、著者は、視覚的に中心の推定ポーズ分布からサンプリングすることにより、異なるシミュレーションでの初期ポーズ推定の生成を達成します。 さらに、著者はシミュレーションkの数も増加しました(この実験ではk = 40)。 k値が十分に大きい場合、実際の初期ポーズが一連のシミュレーションで完全に表される可能性が高く、コスト関数を最適化することにより、シミュレーションに正しいポーズを見つけることができます。 初期オブジェクトのポーズをサンプリングするために、著者はそれぞれ翻訳状態と回転状態をサンプリングしました。ここで、翻訳は等方性正規分布からサンプリングされ、回転サンプリングはゼロ平均等方性ベクトルをSO(3)に描画することによって達成され、平均回転に適用されます。 したがって、(3)は、一般的に3次元回転グループと呼ばれる回転マトリックスRを含む特別な直交グループです。 3次元空間では、3次元回転グループは、合成演算子の作用の下で起源の周りを回転できるグループを表します。回転は、回転したベクトルの長さと相対ベクトル方向を維持し、線形であることができます。ロボット工学では、この回転は非常に重要です。剛体の回転を3次元空間でマークすることができます。 2番目の問題を解決するために、著者は、ポーズ追跡中に派生的なサンプルベースの最適化アルゴリズムを使用して、シミュレーションと実際のダイナミクスの間の不一致を提案します。具体的には、各t時間ステップの後、すべてのシミュレーションの平均コスト、およびこのウィンドウ中に指定されたオプティマイザーにシミュレーションステータス、パラメーターが渡されます。オプティマイザーは、独自の更新されたパラメーターを使用して、次のシミュレーションセットを決定します。次のセットのシミュレーションは、現在のセットのシミュレーションからサンプリングされ、シミュレーションパラメーターとオブジェクトポーズに摂動を追加します。この探索プロセスは、シミュレーションの多様性を維持し、観測ノイズのために準最適なシミュレーションパラメーターまたは状態を防ぎます。 最後に、kシミュレーションのパラメーターを最適化してシミュレーション状態が現実の世界に近づくようにするために、著者は3つの派生的なサンプルベースのオプティマイザーを提案および評価します。 1)加重再サンプリング(WRS):WRSは、既存のシミュレーション状態S^(1:k)に基づいて確率質量関数(PMF)を構築し、この分布からKの置換を抽出して、次のシミュレーションセットを形成します。 PMFを形成するために、WRSはシミュレーションコストでSoftMaxを適用します。 その中で、λは分布の明確さを決定します。再サンプリング後、すべてのシミュレーションは、シミュレーションパラメーターとオブジェクトポーズを摂動することで調査されます。 2)相対エントロピーポリシー検索(REPS):このホワイトペーパーでは、サンプルベースのREPS変数を使用して、これらの重みのソフトマックスによって形成された分布から各シミュレーションの重みとサンプルを計算します。 WRSは固定パラメーターλを使用して分布を構築し、REPSは適応温度パラメーターηを解きます。これにより、古いサンプル分布と更新されたサンプル分布の間のKL発散制約の下での全体的な分布のパフォーマンスが向上します。担当者を使用するには、次の式を使用して、コストが報酬として再構築されます。 ηはデュアル関数g(η)を最適化することによって計算され、次にηはrepsを構築するために使用されます 再サンプリング後、各シミュレーションはWRSと同じ方法で混乱します。 3)人口ベースの最適化(PBO):人口ベースのトレーニング(PBT)メソッド[7]に触発されたPBOは、最初にすべてのシミュレーションを平均コストに基づいてソートし、最も低コストの最適なK_BESTシミュレーションを見つけます。次に、残りのk-k_bestシミュレーションは、k_bestシミュレーションのコピーに置き換えられ、それを置き換えて使用します。最後に、K_BESTシミュレーションはWRSと同じように摂動されています。 3.2.2実験分析 著者は、アレグロハンドとKUKA IIWA7と対になったロボットアームを使用して、シミュレーションと現実世界の実験を通じてこのペーパーで提案された方法のパフォーマンスを評価しました。シミュレーション実験では、第一に、オペレーティングシステムはハンドターゲットの操作軌跡を追跡するために手を使用し、次にこのペーパーで提案されたアルゴリズムをオフラインで実行することにより、ポーズ推定誤差を評価します。現実世界の実験では、著者は、最新のRGB-Dベースのポーズ推定アルゴリズムであるPOSERBPF [8]を使用して、オブジェクトの初期および最終的なポーズを取得し、これらの初期および最終ターゲットのポーズを真の値として扱い、この論文で提案されたアルゴリズムによって予測されたポーズと最終的なポーズを比較します。 著者は、7つの自由度KUKA IIWA7ロボットアームに16の自由度の4本の指でアレグロの手を取り付けます。実際の接触フィードバックについては、SynTouch BioTACセンサーを各指先に接続します。 実験は、Yale-Columbia-Berkeley(YCB)オブジェクトデータセットの3つのオブジェクト(スパム缶、泡レンガ、おもちゃのバナナ)、および文献[9]で公開されたデータセットで得られたモデル、テクスチャ、およびポイントクラウドで使用されました。これらのオブジェクトは、アレグロハンドのサイズに合うように選択され、しっかりした精密グリップを作成するのに十分な軽さであるために選択されました(著者は、その重量を減らすためにスパムを空にしました)。 各ターゲットオブジェクトについて、シミュレーション実験と実際の実験では、著者は2つの動作軌跡のデモンストレーションを提供します。1)手に握りしめてオブジェクトを握り、2)同じ操作を把握しますが、指先が壊れて接触(指の回転)を再確立します。このデモでは、シミュレーションと現実世界の実験の分析のために、合計24の軌跡を提供します。どちらのタイプの軌道でも、ターゲットオブジェクトは、ワークベンチの推力力との慣性力と接触により、翻訳および回転およびスライドします。各軌道は約1分間続きます。ポーズ推定アルゴリズムを約30 Hzの周波数で実行できると仮定すると、結果の合計は軌道ごとに約2kフレームです。著者は、オプティマイザー(WRS、担当者、PBO)に加えて、次の2つのベースライン方法も評価しました:オープンループ(OLP)とアイデンティティ(目)。 OLPは1つのシミュレーションを使用してオブジェクトのポーズを追跡します。目はノイズの多い最初のポーズを使用して初期化され、常に最低コストのシミュレートされたポーズを選択しますが、再サンプリングまたはオプティマイザーの更新処理は実行されません。最後に、このペーパーでは、評価インジケーターとして平均距離偏差(追加)を使用しています。追加は、実際のポーズと予測されたポーズのオブジェクトポイントクラウドの対応するポイント間の平均距離を計算します。 図11は、シミュレートされた環境での実験結果を示しています。その中で、黒い垂直線の長さは1標準偏差を表します。通常、最適化方法は平均と分散が低くなりますが、相対的な順序は初期ポーズノイズの大きさに依存します。 REPSとPBOは、それぞれ5.8mmと5.9mmの中程度のノイズ条件下で最適な追加パフォーマンスを達成しました。図11からわかるように、最初のポーズエラーの増加とともに増加しますが、オプティマイザー法に基づく値は比較的少ないです。目がオプティマイザーを使用してメソッドに匹敵する効果を達成することがありますが、後者は通常、エラーの分散が小さく、エラーが大きくなります。中程度のノイズの場合、REPSとPBOの最適な追加値はそれぞれ5.8mmと5.9mmです。 図11。すべてのシミュレーション実験におけるさまざまなオプティマザーによる初期姿勢ノイズレベルの姿勢追跡エラーの比較 図12。現実の世界で3つのオブジェクトの追跡実験のポーズ 図12は、現実の世界での実験結果を示しています。その中で、追加の値はシミュレーション環境での実験の結果よりも高くなっています。これは、現実世界のダイナミクスの違いが異なるパラメーターのシミュレーションよりも大きいためです。図12からわかるように、オプティマイザーはおもちゃのバナナの実際のデータを効果的に追跡できません。オブジェクトの長い力アーム(バナナ)と低摩擦係数により、そのスライド挙動は正確にモデル化することが困難です。これは、このアルゴリズムの障害モードです。すべてのシミュレーションが分岐している場合、その後の最適化プログラムの更新ではアルゴリズムが復元されません。 3.2.3要約 このペーパーでは、接触フィードバックとGPUアクセラレーションのロボットシミュレーションを通じて、ハンドターゲットのポーズを追跡するサンプルベースの最適化アルゴリズムを提案します。並列シミュレーションは、複雑な接触ダイナミクスによって引き起こされる現実世界とモデルオブジェクトの複数の状態推定値を同時に維持します。モデルオブジェクトは変化をもたらします。最適化アルゴリズムは、ターゲットポーズ追跡プロセス中にシミュレーションパラメーターを調整して、追跡パフォーマンスをさらに向上させます。将来の仕事では、著者は、接触センシングとビジョンベースのポーズ追跡を最適化されたループに導入することを計画しています。 4。記事の概要 このペーパーでは、人間とロボットの触覚センシングの知識について一時的に整理して議論し、これを基礎として使用して、2つの論文でアプリケーションの例を提供します。研究者は、人間が触覚信号を使用して、オブジェクトを操作、制御する方法を探求、知覚、および学習する方法について、多くの詳細な分析を実施しています。ただし、生物学的システムが動作を制御する方法で感覚情報を処理する方法は、ロボットエンジニアリングソリューションでの直接的な適用に常に適しているとは限りません。ただし、行動生物が動的に変化する環境にどのように反応するかについての参照を提供し、ロボットの開発とアプリケーションのためのマルチレベルの概念フレームワークを提供します。研究者は、このフレームワーク内でロボットシステムセンサーの全体的な設計を実行できます。 システムの全体的なパフォーマンスは、個々のシステム要素の独立した品質だけでなく、それらの統合方法にも依存します。アリストテレスの言葉では、「全体はその部分の一部以上のものです」。 「さまざまなシステムの制約を考慮すると、ロボットの自動制御を実現するのに非常に役立ちます。これには、外部の刺激を刺激の結果に至るまで、センサーシステムのアーキテクチャを理解する必要がありますロボットでは、ロボット研究を促進するだけでなく、人間と環境の間の相互作用を理解するのにも役立ちます。 |
<<: このモデルはGAN、ETH超解像モデルSRFlowよりも想像能力が強い
>>: アルゴリズムなしでもTikTokを購入する価値はあるでしょうか?技術専門家:購入者がその魔法を再現するのは難しい
最近、米国ノースウェスタン大学のエンジニアたちが、小さくてかわいいカニの形をした、史上最小の遠隔操作...
COVID-19の世界的パンデミックを受けて、職場への復帰は通常通りの業務ではなく、セキュリティ シ...
[[259445]]ブロックチェーンと人工知能はどちらも今話題になっています。クールな「ブラックテ...
それはとても神秘的で、本当にハイエンドで、急速に発展しています!それは私たちの周りにあり、あなたは気...
OpenAIのGPTストアにはオープンソースの代替品がある——ハグフェイスより。同社が新たに立ち上げ...
近年、モバイルインターネットの発展とスマートフォンの普及により、さまざまなモバイルゲームが急速に普及...
アンドリュー・ン教授(スタンフォード大学コンピュータサイエンスおよび電気工学准教授)は、「人工知能は...
社会における分業がますます洗練されていくにつれ、まるで種の進化のように、新しい職業が次々と生まれ、中...
新型コロナウイルス感染者数がほぼ指数関数的に増加し、世界は機能停止状態に陥っている。世界保健機関によ...
テンセントAIラボ機械学習センターは本日、世界初の自動ディープラーニングモデル圧縮フレームワーク「P...
太陽光発電と風力発電は急成長しているが、世界の再生可能電力への移行は、気候目標を迅速に達成するにはま...