「不適切なタイミングで車線変更をすることがよくあるのですが、状況を救うためにハンドルを切ろうとすると、車が抵抗してきます。非常に危険です。」 「このプロセス全体は、まるで自分の子供が運転しているのを見ているようなものです。不安で緊張し、非常にストレスを感じます。」 ここでの「それ」とは、Tesla Autopilot のことです。以前、米国の消費者レポートは、アップデートされたオートパイロットには自動車線変更機能があると報じました。車の所有者は、車線変更時にリマインダーを受け取らないように選択し、決定を完全に機械に任せることができます。しかし、試乗編集者はそれを体験した後、不満を漏らした。 テスラのオートパイロットは常に物議を醸してきました。一方で、初心者にとっては朗報であり、事故防止の助けになると言う人がいる一方で、事故の原因だと批判する人もいます。このシステムはユーザーエクスペリエンスの向上をもたらす一方で、安全上の事故が頻繁に発生しているため、大きな注目を集めています。 テスラのオートパイロットは、真の「自動運転」にはまだ程遠いものの、自動運転の未来を垣間見せてくれることは否定できない。結局のところ、ソフトウェアとハードウェアの制限により、最大でL2の自動運転機能しか実現できません。この段階では、依然として「人」が主体であり、作業には機械と人の協力が必要です。したがって、オートパイロットに関するこれらの論争はすべて、典型的な「人間と機械の共同運転」の問題に起因する可能性があります。 「ナビゲート オン オートパイロット」機能が有効になっているテスラ モデルは、自動で車線変更できる | Teslarati 「完全自動運転」という純粋に技術的な課題が普及する前に、「人間と機械の共運転」の問題は、すべての自動車会社と自動運転会社が克服しなければならないもう一つの難題です。 この問題の核心は「人」という不確実性要因にあります。制御権の分割により、「ヒューマン・マシン・コ・ドライビング」は「デュアル・ドライビング・シングル・コントロール」と「デュアル・ドライビング・デュアル・コントロール」の2つのモードに分けられます。前者は、運転権の引き継ぎと、ドライバーが主席または助手席にいる場合の問題に焦点を当てています。一方、後者は、運転の信頼性と、ドライバーと車の両方が制御している場合、どちら側をより信頼すべきかに焦点を当てています。 したがって、効率的で快適かつ安全な自動運転システムを構築することは非常に複雑です。理由は簡単です。機械は人間と対話する必要があるからです。さらに、このインタラクティブなプロセスにはロボット工学だけでなく、機械学習、心理学、経済、政策などの分野の問題も含まれています。また、これは私たちの既存の認識や仮定にも挑戦します。人間のパフォーマンスはどれほど悪いのか?人工知能はどれほど強力なのか? MIT の「人間と機械の共同運転」研究。右上にテスト車両「ブラック ベティ」が写っている | MIT MITはこれまで「人間と機械の共運転」に関する研究プロジェクトを実施し、「人間中心」の自動運転システムを設計・開発する観点から7つの原則を提唱してきた。これらの指針は、人間の本質の複雑さを排除するのではなく、それを全体的なシステムに統合します。これがまさにこの研究テーマの本質です。 実験結果のデモンストレーションは「ブラックベティ」と呼ばれる無人機で見ることができます。カメラのみを搭載し、主に機械学習を利用して外部環境を認識し、意思決定を計画し、ドライバーを監視し、音声を認識・集約し、人間と機械の双方向制御(音声制御)のシームレスな切り替えを管理します。ステアリングホイールにはトルクセンサーが搭載されています。 人間が複雑な要因なのでしょうか?過去10年ほどの間に、自動車の自動運転能力は徐々に向上しており、政策立案者や業界の安全研究者は、関連する法律、基準、エンジニアリング設計、さらには業界間の交流のための参照フレームワークを提供するために、「自動運転」をどのように分類するかについて考え始めています。現在業界で採用されている評価基準は、米国自動車技術会(SAE)が開発したもので、自動運転をL0からL5までの6つのレベルに分類しています。しかし、SAE による各レベルの定義は実際には非常に曖昧で、明確かつ明確な区別がないため、業界の思考を刺激する「レンガ」としてはもはや適切ではなく、むしろ自動車システムの設計と開発のための一連の指針のようなものになっているようです。 SAE による自動運転の分類 | SAE 業界には自動運転車に関して、次の 3 つの一般的な見解があります。1. 運転タスクは単純である。2. 人間は運転が得意ではない。3. 人間と機械はうまく連携できない。これらの見解と比較すると、MIT の研究は正反対の方向に進んでいます。1. 運転は実際には難しい。2. 人間は優れたドライバーである。3. 人間とインテリジェント マシンが効率的に連携できるようにすることは可能であり、価値のある目標である。 こうした前提と仮定に基づいて、MIT は「人間中心」のフレームワークを提案し、それを人間と機械の共同運転システムの開発に適用して、特定の運転タスクを実行する際に人間と機械の境界を完全に取り除きました。同時に、MITは人間と機械の共同運転のための7つの原則も提案し、「ブラック・ベティ」の設計、開発、テストにこれらの原則をどのように適用するかについても議論しました。 人間と機械の共同運転の7つの原則1. 自律性の共有 MIT は、自動運転は 1. 共有自動運転と 2. 完全自動運転の 2 つのレベルに分けられるべきだと考えています。このような分類は、建設的なガイドラインを提供し、必要な制約を追加するだけでなく、達成すべき目標を定量化します。実装する機能、対応する技術要件、発生する可能性のある問題も、各カテゴリに分類できます。 この原則の中心にあるのは、「ループ内の人間のドライバー」についての議論です。車両を効果的に制御するには、人間と機械のチームが協力して外部環境を完全に認識する必要があります。目標は、業界全体に「人間と機械の共同運転」と「完全自動運転」を明確に区別するよう促すことです。 表 I 「人間と機械の共同運転」と「完全自動運転」の 2 つのパスに関係する技術、および大規模量産で使用される場合の各技術の性能要件のレベル | MIT 表 I の「良好」および「例外的」という用語は、1% の極端なケースを解決するための優先順位を示すために使用されていることに注意してください。リモート制御、V2X、V2I は必須の技術ではなく、使用するには特別な機能要件が必要です。 高度な自動運転を実現する場合、従来の考え方では「人間」の要素を考慮することは完全に省略され、主にマッピング、認識、計画、および表 I の「完全自動運転」の列で「例外的」とマークされている技術に重点が置かれてきました。実際には、現在のハードウェアとアルゴリズムの機能を考慮すると、このソリューションは高精度マップとセンサーキットの堅牢性に対する要件が高く、より保守的な運転戦略を提供します。 表 I に示すように、「人間中心」の自動運転車は主に運転手に焦点を置いています。車両の制御は依然として人間が担当しますが、前提条件として、人の状態、運転方法、およびこれまでの人間と機械の協調経験を十分に考慮する必要があります。同時に、車両のステアリング、加速、減速などは人工知能システムに任されます。テスラのオートパイロットを例にとると、以前の MIT の研究では、テスト走行の 30% 以上がこの L2 運転支援システムによって制御されていることが示されています。人間と機械の協働運転の応用が成功すれば、50%以上の機械制御率を達成できるはずだ。 MITによると、この実験では、無人車両システムが引き継ぎプロセスにおいて異なるレベルの能力を示し、人間の運転手は常に機械の動きに細心の注意を払い、知覚システムによって得られた情報に基づいて、起こり得る危険をタイムリーに予測していたという。 2. データから学ぶ 表 I から、関係する車両技術はいずれもデータ駆動型であり、大量のエッジ ケース データの収集と、これらのデータを使用してアルゴリズムを継続的に最適化する必要があることが簡単にわかります。この学習プロセスの目的は、大量のデータを通じて、従来のモジュール式の教師あり学習からエンドツーエンドの半教師あり学習および教師なし学習への移行を実現することです。 車両の自動運転を実現するために、従来の方法では、どのレベルであっても機械学習技術を広範に使用することはほとんどありません。ただし、車線を識別する Mobileye の視覚認識システムや、ドライバーの頭の動きを予測する GM Super Cruise に搭載された赤外線カメラなど、一部の特殊なオフライン シナリオは除きます。 テスラのオートパイロットは、他のソリューションよりも一歩先を行くかもしれません。第 2 世代のハードウェア プラットフォーム HW 2.0 のソフトウェア アルゴリズムを開発する際に、視覚認識に教師あり機械学習の原理をさらに多く適用します。しかし、それでも、車両制御やドライバーの状態監視のほとんどはビッグデータ駆動型の方法を使用して実装されておらず、オンライン学習プロセスはほとんど含まれていません。 現在業界で行われている完全自動運転技術の一部の路上テストでは、機械学習は主に環境認識の面で使用されています。さらに悪いことに、これらの車両によって収集されるデータは、量と多様性の両面において、レベル2の自動運転機能を備えたモデルのデータに比べてはるかに劣っています。 テスラのオートパイロットは主に機械学習アルゴリズムを利用して物体や車線の検出を行っている | Electrek MIT は、「L2 自動運転システムの機械学習フレームワークで使用されるデータは、規模と豊富さの観点から、多様で代表的な困難なエッジ ケースをカバーするのに十分な拡張性を備えている」と考えています。Shared Autonomy では、人と車両の知覚データを同時に収集し、教師あり学習の注釈付けのためにデータのマイニングと分析を行う必要があります。 MIT の実験では、運転シーンの認識、経路計画、ドライバーの監視、音声認識、音声集約にディープ ニューラル ネットワーク モデルが使用され、収集された大量の運転体験データを通じて継続的に調整および最適化できます。 MIT は、データ収集の際には単一のセンサー ソースに限定されるのではなく、運転体験全体を考慮し、すべてのセンサー データ ストリームをリアルタイム クロックを通じて集約し、複数のニューラル ネットワーク モデルにラベルを付けると述べています。このアプローチでは、運転シーンとドライバーの状態をうまく一致させることができ、集約されたセンサー データ ストリームに対してラベル付けが実行されるため、データ規模が許せば、モジュール式の教師あり学習からエンドツーエンドの学習に簡単に移行できます。 3. ヒューマンセンシング これは実際に私たちが一般的に「ドライバー監視」と呼んでいるものです。これは、注意散漫、疲労、注意力の配分と能力、認知負荷、感情状態などのさまざまなレベルを含む、運転者の全体的な心理的および機能的特性の多次元測定と評価を指します。 現在、ハンドルに赤外線カメラを搭載したGMのスーパークルーズを除き、ADAS運転支援システムを搭載した量産モデルのほとんどと、路上でテストされている完全自動運転車には、ドライバー監視用のソフトウェアやハードウェアが一切搭載されていない。テスラ モデル 3 には車載カメラも搭載されているが、まだ有効化されていない。関係者によると、その具体的な機能はソフトウェアが更新されて初めてわかるという。ビジョンベースのソリューションに加えて、市場には精度が低い方法もいくつかあります。例えば、テスラはハンドルにトルクセンサーを設置しており、ハンドルが逆回転しているかどうかを監視してドライバーが疲労しているかどうかを推測する方法を採用している企業もあります。 新世代キャデラックCT6のドライバーモニタリングシステムはSeeing Machinesが提供 | 公式写真 MIT は、「ドライバーの状態を認識して監視することが、効率的な人間と機械の共同運転を実現するための最初の、そして最も重要なステップである」と考えています。過去 20 年間、マシン ビジョン、信号処理、ロボット工学などの分野の専門家が、ドライバーと乗客の安全を最大限に確保する方法を探ることを目的として、関連するトピックに関する研究を行ってきました。さらに、ドライバーの状態を監視することは、ヒューマン・コンピュータ・インタラクション・インターフェースや先進運転支援システム (ADAS) の設計の改善と強化に大いに役立ちます。自動車の知能化が進むにつれ、安全でパーソナライズされた移動体験を実現するために、ドライバーのさまざまな行動をいかに正確かつリアルタイムに検出するかが特に重要になります。 さらに興味深い点は、完全な手動運転から完全な自動運転に移行すると、異なるモード間の切り替えの問題が発生することです。一般的に、両手をハンドルから離す(ハンドオフ)ことは、システムが引き継ぐ準備ができていることを示す合図ですが、判断に使用できるより正確な情報は他にあるのでしょうか。おそらく、これも「ドライバーモニタリング」の研究者が引き続き考えていく必要があることなのでしょう。 4. 共有された知覚制御 簡単に言えば、これは自動運転システム全体に「一対の目と手」を追加することと同じです。目標は、追加の認識、制御、およびルート計画メカニズムを組み込むことです。高度に自動化された運転システムが稼働している場合でも、情報はタイムリーにドライバーにプッシュされ、運転プロセス全体に組み込まれる必要があります。 完全自動運転を研究する目的は、人間の信頼性の低さや行動の予測不可能性を考慮し、「知覚制御」の問題をより適切に解決することです。したがって、最も簡単な解決策は、12年前にDARPAチャレンジで優勝したチームが行ったように、運転プロセスから人間を排除することだというのが一般的な見解です。
しかし、従来の解決策とは対照的に、MIT が提唱する「人間中心」の理論では、認識と意思決定計画の閉ループにおいて人間が重要な位置を占めます。そのため、車両認識システムは、人間のドライバーに外部環境情報を提供するという補助的な役割を果たしており、これは実際にはマシンビジョン自体の限界に対処することを目的としています。 表 II MIT の「人間中心」自動運転システムが実行する認識タスク(ドライバーの表情、動き、運転可能エリア、車線、シーン内のオブジェクトの検出を含む) | MIT MIT の研究では、スタッフがこの原理に基づいていくつかの重要なアルゴリズムを設計しました。表IIにいくつかの典型的なケースを示します。まず、ニューラル ネットワークによる判断、道路の分割領域、推定された運転シーンの状態の信頼性を視覚的に確認できます。次に、すべての知覚データが統合され、融合された決定提案が出力されるため、表 IV のシナリオで全体的なリスクを推定できます。3 番目に、MIT は常に模倣学習を使用しています。つまり、車両を操作するときの人間のドライバーのハンドルの動きをトレーニング データとして使用して、エンドツーエンドのディープ ニューラル ネットワークをさらに最適化します。最後に、MIT が使用するエンドツーエンドのニューラル ネットワークは、「議論マシン」と呼ばれるフレームワークの一部であり、メインの知覚制御システムに人間の監視を提供します (表 III)。 ここでいう「ディベートマシンフレームワーク」は、2018年にMITが提唱した概念です。詳しい技術的詳細については、(http://1t.click/DAK)をクリックしてご覧ください。プライマリ AI システムと、同じタスクを実行するように独立してトレーニングされたセカンダリ AI システムをペアにします。 このフレームワークは、基礎となるシステムの設計や操作に関する知識がなくても、2 つのシステム間の不一致が手動で監視される場合、全体的な意思決定パイプラインの精度を向上させるのに十分であることを示しています。 表 III 「ブラックベティ」自動運転テストカーにおける「ディベートマシン」フレームワークの適用と評価 | MIT 表IV 車両の内部および外部の認識システムからのデータを組み合わせて行われる融合決定により、起こり得るリスクを完全に推定できる | MIT 5. ディープパーソナライゼーション これには、「人間を機械に統合する」という概念が含まれます。 AI システムのパラメータを調整することで、人間の操作により適したものになり、ある程度のカスタマイズが可能になります。最終的なシステムは、工場出荷時の通常の構成ではなく、ドライバーの動作特性を備えている必要があります。 6. 不完全な設計 自動車業界全体では、さまざまな理由から、エンジニアリング設計時に「安全性」が最も重要な考慮事項となることが多いため、システム エラーの頻度と重大度は可能な限り最小限に抑える必要があります。言い換えれば、自動運転では完璧さが目標であり、特定の機能を設計する際には、その「不完全」かつ「不確実」な性質のために、潜在的に「必要な」設計を放棄することにもつながります。 しかし、MITの研究によれば、「人間と機械の共同運転」を実現するための人工知能システムを設計する際には、豊富で効率的な通信メカニズムが非常に必要な要素となる。 「コミュニケーション」の点では、システムの不完全性により、知覚モデルの交換と統合中に、人間と機械に高密度で多様な情報コンテンツを提供できます。 AI システムの不確実性、制限、エラーが隠されると、人々との信頼関係や深い理解を築く機会を逃してしまいます。 MITは、半自動運転システムの設計において業界がこれまで採用してきた「完璧な」アプローチは、これまでに犯された重大な間違いの1つである可能性があると考えている。 MITは「ブラック・ベティ」無人運転車を開発する際に、テキストと視覚的な形式を通じて人工知能システムの限界を人間に十分に伝えた。たとえば、人間と機械が外界をどのように認識しているかを視覚化することで、ドライバーは AI システムの限界を理解するのに役立ちます。研究者らは、この方法は単に「警報」や「漠然とした信号」を出すよりも、人間とコンピューターのコミュニケーションの最も単純かつ効果的な方法だと述べている。この通信メカニズムは、実装において依然としていくつかの技術的な課題に直面していますが、たとえば、視覚化プロセスでは通常、チップの高い計算能力とリアルタイム呼び出し機能が必要になります。しかし、ロボット工学、自動化、人間とコンピュータの相互作用などの分野では、注目して解決策を考える価値があります。 7. システムレベルのエクスペリエンス 現在、自動車産業のエンジニアリング設計プロセスにおいて最も重要な目標の 1 つは「安全性」です。もう一つは「コスト削減」です。 2 番目の目標は、モジュール式のコンポーネントベースの設計思考を導くことです。しかし、ロボット工学、コンピュータービジョン、機械学習などの分野の人工知能システムの設計では、同じパターンでも理由はまったく異なります。 たとえば、設計において単一の機能(ターゲット検出など)の実装に重点を置くことで、アルゴリズムの合理性を効果的にテストし、徐々に改善および最適化することができます。ただし、このプロセスでは、必然的に単一の機能に重点が置かれすぎて、システム全体のエクスペリエンスが無視されてしまいます。 過去数十年にわたり、「システムエンジニアリング」や「システム思考」などの原則が自動車産業の製品の出力を導いてきました。しかし、同様の考え方が自動運転車の設計、テスト、評価に適用されることはほとんどありません。 MITが先に挙げた6つの原則のように、人間も機械も必ず欠点を抱える。しかし、「人間と機械の共走」という枠組みをシステムレベルで考えたとき、初めて欠点が長所に変わる可能性がある。 「人間と機械の共運転」をめぐる永遠の議論 短期的にも長期的にも、自動運転のどの実装パスが最終的に成功するかを予測することは実際には困難であり、少なくとも、どのような結果が「成功」と見なされるのかさえわかりません。研究の目的について、MITは自動運転システムが「安全性」「快適な運転体験」「向上した旅行体験」という3つの要件を適切に妥協するのではなく、同時に満たすことができることを期待しているという。 「人間と機械の共同運転」というテーマは、過去 10 年間、自動車産業やロボット工学を含む多くの分野で研究の焦点となってきましたが、依然としてさらなる議論に値します。 今年4月の上海国際モーターショーでは、ティア1サプライヤーのZFとNVIDIAが共同で、インテリジェント先進運転支援システム「coPILOT」を発表しました。乗用車の安全性と運転快適性の向上を目指した「L2+レベル」の自動運転支援システムです。このシステムも「人間と機械の共走」というコンセプトを重視していることは、製品名からも容易に想像できる。ドライバーを監視し、危険な状況が発生した場合に警告を発するためのセンサーと機能が装備されています。たとえば、運転手が不注意で、道路交通にほとんど注意を払っていない場合や、眠気の兆候が見られる場合などです。そのため、人工知能は「パーソナル運転アシスタント」の役割を果たしており、この製品コンセプトはMITの研究と一致しています。 運転タスクを完璧に解決することと、人間の信頼と注意を完璧に管理することのどちらが難しいでしょうか? これは熟考する価値のある質問です。 MITは、この問題に関する議論は止まらないと考えています。この論文も無人試験車「ブラックベティ」も、「人間と機械の共運転」研究の成果に基づいています。MITは、それが「人間中心」の自動運転システムを開発する唯一の方法であると考えています。 |
>>: 人工知能はデータの管理と処理を改善する素晴らしい方法です
「将来、AI が仕事を奪うようになるか?」と尋ねると、おそらく周囲の人々からさまざまな意見が返って...
AIの分野では、オープンソースとクローズドソースの選択については、常に意見が分かれてきました。しかし...
編集者注:人工知能技術が進歩し続けるにつれ、職を失うことを心配する人が増えています。彼らの理由は、根...
空を飛ぶ龍、数千マイル離れたところから救援に駆けつける!最近、「翼龍」無人機が飛び立ち、被災地に急行...
[[342976]]機械学習は、強力な理論的側面と実践的側面を備えた技術分野です。機械学習関連の仕事...
頭に貼るビジョンプロは人から人へと広がっています。これがロンドンの街の最新風景です。 「刺激が欲しけ...
[[401455]]地熱発電は地球の地下の自然の熱を利用して電気を生み出すので、魅力的な点がたくさん...
最近、海外メディアの報道によると、数学者たちは自分たちには解決できない機械学習に関連したコンピュータ...