自動運転にはセンサーがいくつ必要ですか?

自動運転にはセンサーがいくつ必要ですか?

センサーのコストは15ドルから1ドルまで幅があり、自動車メーカーは、車両を完全に自動運転にするにはどれだけのセンサーが必要か疑問に思っている。

これらのセンサーは周囲の環境に関するデータを収集するために使用され、画像センサー、LIDAR センサー、レーダー センサー、超音波センサー、熱センサーなどが含まれます。各センサーには制限があるため、1 種類のセンサーだけでは不十分です。これは、複数の種類のセンサーを組み合わせて安全な自動運転を可能にするセンサーフュージョンの主要な推進力です。

レベル 2 以上のすべての車両は、センサーを利用して周囲を「見て」、車線中央維持、アダプティブ クルーズ コントロール、緊急ブレーキ、死角警告などのタスクを実行します。これまで、OEM は設計と展開に対して非常に異なるアプローチを採用してきました。

メルセデス・ベンツは2022年5月、ドイツでレベル3自動運転が可能な初の車両を発売した。レベル3の自動運転はSクラスとEQSのオプションで、2024年に米国で導入される予定だ。

同社によれば、運転支援パッケージ(レーダーとカメラ)をベースにしたDRIVE PILOTには、LIDAR、フロントウィンドウ用の高度なステレオカメラ、リアウィンドウ用の多機能カメラなどの新しいセンサーが追加されているという。マイク(特に緊急車両を検知するため)と前部キャブ内の湿度センサーも追加されました。安全な自動運転に必要なデータを取得するために合計30個のセンサーが搭載されています。

テスラは別の道を歩んでいる。テスラは2021年にモデル3とモデルYにテスラのビジュアルカメラによる自動運転技術戦略を導入し、2022年にはモデルSとモデルXにも導入すると発表しました。同社は超音波センサーも撤去することを決定した。

1 センサーの制限

今日の自動運転設計が直面している課題の 1 つは、さまざまなセンサーの制限です。安全な自動運転を実現するには、センサーフュージョンが必要になるかもしれません。重要な問題は、センサーの数、種類、配置場所だけでなく、AI/ML テクノロジーがセンサーとどのように相互作用してデータを分析して最適な運転判断を行うかということです。

センサーの制限を克服し、最適なパフォーマンスと安全性を実現するために、自動運転用の複数のセンサーを組み合わせるセンサーフュージョンが必要になる場合があります。

「自動運転では人工知能技術が広く活用されています」と、ラムバスの安全IP担当テクニカルプロダクトマネージャー、ティエリー・コウトン氏は語る。 「自動運転では、エントリーレベルのADAS機能であっても、車両が人間のドライバーと同等かそれ以上のレベルの環境認識を示す必要があります。まず、車両は他の車両、歩行者、道路沿いのインフラを識別し、それらの正しい位置を決定する必要があります。これには、AIディープラーニングテクノロジーがパターン認識機能について十分に解決されている必要があります。視覚パターン認識は、車両が頻繁に使用する高度なディープラーニングの領域です。さらに、車両は常に最適な軌道と速度を計算できなければなりません。これには、AIがルート計画機能についても十分に解決されている必要があります。このようにして、ライダーとレーダーは距離情報を提供できます。これは、車両の環境を正しく再構築するために不可欠です。」

さまざまなセンサーからの情報を組み合わせて車両の環境をよりよく理解するセンサーフュージョンは、依然として活発に研究されている分野です。

「どんなタイプのセンサーにも限界はある」とコウトン氏は言う。 「カメラは物体認識には優れていますが、距離情報は乏しく、画像処理には多くの計算リソースが必要です。対照的に、ライダーとレーダーは優れた距離情報を提供しますが、鮮明さは劣ります。さらに、ライダーは悪天候ではうまく機能しません。」

2 センサーはいくつ必要ですか?

自動運転システムにはいくつのセンサーが必要かという質問に対する簡単な答えはありません。 OEM は現在、この問題に対処しようとしています。ここで考慮すべき他の点としては、たとえば、一般道路を走行するトラックと都市部のロボタクシーのニーズが大きく異なることが挙げられます。

「すべての自動車OEMは、より優れた空間的位置決め、より長い範囲、高い視認性、物体を識別・分類し、さまざまな物体を区別する機能を提供することで車両を保護する独自のアーキテクチャを持っているため、これは難しい計算です」と、ケイデンスの製品管理およびマーケティング担当ディレクターのアミット・クマール氏は語った。 「また、自動車メーカーが実現すると決めた自律性のレベルにも依存します(例として、幅を持たせるため)。簡単に言うと、部分的な自律性を実現するには、さまざまな種類のセンサーを最低 4 ~ 8 個使用する必要があります。完全な自律性を実現するには、現在 12 個以上のセンサーが使用されています。」

クマール氏は、テスラの場合、20個のセンサー(カメラセンサー8個とレベル3以下の超音波センサー12個)があり、ライダーやレーダーは搭載されていないと指摘した。 「同社はコンピュータービジョンを強く信じており、同社のセンサースイートはL3オートノミーに適しています。メディアの報道によると、テスラは自動運転を改善するためにレーダーを導入する可能性があります。」

Zoox は、4 つの LiDAR センサーに加え、カメラとレーダー センサーの組み合わせを実装しました。これは運転手のいない完全自律走行車で、明確に地図に描かれたわかりやすいルートを走行することが目標です。商用展開はまだ開始されていませんが、限定的なユースケース(乗用車ほど広範囲ではない)ですぐに利用可能になります。

見た目がそれほど重要ではないNuroの自動運転配送車両は、4つのセンサーを備えた360度カメラシステム、さらに360度LIDARセンサー、4つのレーダーセンサー、超音波センサーを使用しています。

これらのシステムを実装するための簡単な公式はありません。

「必要なセンサーの数は、組織にとって許容可能なリスクレベルを満たすセンサーの数であり、アプリケーションにも依存します」と、シノプシスの自動車グループの自動車ソフトウェアおよびセキュリティ担当シニアマネージャー、クリス・クラーク氏は述べています。 「ロボタクシーが開発されるなら、道路の安全だけでなく、車内の乗客の行動を監視して乗客の安全を確保するための車内のセンサーも必要になります。この場合、人口が多く都市密度が高い地域になりますが、これは高速道路を走る車両とは対照的に非常にユニークな特徴があります。高速道路では、距離が長く、反応する余地が大きいからです。高速道路では、道路に侵入する可能性は少なくなります。すべての自動運転車のさまざまな角度をカバーするために、3つの異なるタイプのセンサーと3つの異なるカメラを用意しなければならないという決まったルールはないと思います。」

ただし、センサーの数は、車両が対応するユースケースによって異なります。

「ロボタクシーの例では、対処すべき密度が非常に高いため、LIDARや通常のカメラに加えて、超音波やレーダーも使用する必要があります」とクラーク氏は言う。 「また、V2X 用のセンサーも組み込む必要があります。これにより、車両に流入するデータは、車両が周囲で見ているものと一致するようになります。高速道路のトラック輸送ソリューションでは、さまざまな種類のセンサーが使用されます。超音波は、プラトーニングなどの作業を行わない限り、高速道路ではそれほど有益ではありませんが、プラトーニングは前方監視センサーではありません。代わりに、チームのすべての資産に接続できるように、前方監視センサーと後方監視センサーが必要になるでしょう。しかし、高速道路を走行しているトラックが考慮しなければならない距離と範囲のため、ライダーとレーダーがより重要になります。

もう一つの考慮事項は、必要な分析のレベルです。 「処理すべきデータは非常に多く、そのうちどれだけが重要なのかを判断しなければならない」と彼は語った。 「ここで、センサーの種類と機能が重要になります。たとえば、LIDAR センサーがサイクルの早い段階でローカル分析を実行できる場合、追加の分析のためにセンサー フュージョンに返されるデータの量が減ります。データ量が減ると、全体的なコンピューティング能力とシステム設計コストが削減されます。そうでない場合、車両には統合コンピューティング環境またはセンサーのメッシュと分析に重点を置いた専用 ECU の形での追加処理が必要になります。

3. コストは常に問題となる

センサーフュージョンは高価になる可能性があります。初期の頃は、複数のユニットで構成される LiDAR システムのコストは 8 万ドルにも達することがありました。コストが高いのは、デバイス内の機械部品が原因です。現在ではコストは大幅に低下しており、一部のメーカーは将来的には 1 ユニットあたり 200 ~ 300 ドル程度まで下がる可能性があると予想しています。新興の熱センサー技術は数千ドルかかるでしょう。

全体として、OEM はセンサー導入の総コストを削減するというプレッシャーに引き続き直面することになります。 LiDAR システムの代わりにカメラをもっと使用することで、OEM は製造コストを削減できます。

「都市環境における安全性の基本的な定義は、回避可能な衝突をすべて排除することです」と、シーメンスデジタルインダストリーズソフトウェアのハイブリッドおよび仮想システム担当副社長、デビッド・フリッツ氏は語った。必要なセンサーの最小数はユースケースによって異なります。将来的には、スマートシティのインフラが高度化され、普及し、都市環境における車載センシングの必要性が減ると考える人もいます。

車車間通信もセンサーに影響を及ぼす可能性があります。

「ここでは、搭載センサーの数を減らすことは可能ですが、まだそこまでには至っていません」とフリッツ氏は指摘した。 「また、停電やその他の停電により、外部情報がすべて利用できないことを AV が想定しなければならない状況も常に存在します。そのため、車両には常に何らかのセンサーが必要です。都市部だけでなく、田舎でもそうです。私たちが取り組んでいる設計の多くは、車両の外側に 8 台のカメラ、内側に複数のカメラを必要とします。適切に調整された前面の 2 台のカメラにより、低遅延で高解像度のステレオ ビジョンを実現し、物体の奥行き範囲を提供し、レーダーの必要性を減らすことができます。これを車両の前面、背面、側面で実行して、完全な 360° ビューを実現します。」

すべてのカメラが物体の検出と分類を実行するため、重要な情報が中央コンピューティング システムに渡され、制御の決定が行われます。

「インフラやその他の車両情報が入手可能であれば、車載センサーからの情報と融合してより包括的な3Dビューを生成し、より適切な意思決定が可能になります」とフリッツ氏は語った。 「車内では、ドライバーの監視や、置き去りにされた物体などの占有状況の検出のために追加のカメラが使用されています。霧や雨などの悪天候に対処するために低コストのレーダーを追加することは、センサースイートへの高度な追加です。最近は、ライダーの使用はあまり見られません。ライダーのパフォーマンスは、状況によってはエコーや反射によって妨げられる可能性があります。当初、自動運転のプロトタイプは、ライダーデータの GPU 処理に大きく依存していましたが、最近では、よりスマートなアーキテクチャにより、システム全体のデータフローをより最適化する分散アーキテクチャを備えた高解像度、高 FPS カメラが好まれるようになりました。」

センサーフュージョンの最適化は複雑になる可能性があります。どの組み合わせが最高のパフォーマンスを発揮するかをどうやって知るのでしょうか? OEM は機能テストに加えて、さまざまなセンサーの組み合わせの結果をテストして最適なパフォーマンスを実現するためのモデリングおよびシミュレーション ソリューションの提供を Ansys や Siemens などの企業に依頼しています。

4 拡張技術が将来のセンサー設計に影響を与える

スマート インフラストラクチャにおける V2X、5G、高度なデジタル マップ、GPS などの強化されたテクノロジにより、より少ない車載センサーで自動運転が可能になります。しかし、これらの技術を向上させるには、自動運転には自動車業界全体の支援とスマートシティの開発が必要になります。

「さまざまな拡張テクノロジーはそれぞれ異なる目的に役立ちます」と、Arteris IP のソリューションおよびビジネス開発担当副社長 Frank Schirrmeister 氏は指摘します。 「開発者は、安全で便利なユーザー エクスペリエンスを作成するために、この 2 つを組み合わせることがよくあります。たとえば、経路計画に使用される地図情報のデジタル ツインは、視界が限られている状況でもより安全なエクスペリエンスを作成し、センサー情報に基づいて車内でのローカルな意思決定を強化できます。V2V および V2X 情報は、車内でローカルに利用できる情報を補完して安全上の決定を下すことができ、冗長性が追加され、安全上の決定の根拠となるデータ ポイントが増えます。」

さらに、コネクテッドカーでは、車両と路側インフラ間のリアルタイム連携が可能になることが期待されており、そのためには超信頼性低遅延通信(URLLC)などの技術が必要です。

「こうした要件により、交通予測、5Gリソース割り当て、輻輳制御などにさまざまなAI技術が応用されるようになった」とコウトン氏は述べた。 「言い換えれば、AI は自動運転がネットワーク インフラストラクチャに及ぼす大きな影響を最適化し、軽減することができます。OEM は、ECU が仮想化され、無線で更新されるソフトウェア定義の車両アーキテクチャを使用して自動運転車を構築すると予想されます。デジタル ツイン テクノロジーは、実際の車両に非常に近い車両のクラウド シミュレーションでソフトウェアと更新をテストするために不可欠です。」

5 結論

最終的にレベル 3 の自動運転が実装されると、OEM のアーキテクチャに応じて、30 個以上のセンサー、または 12 個のカメラが必要になる可能性があります。しかし、どちらがより安全か、あるいは自動運転センサーシステムが高速道路と同レベルの安全運転を市街地でも提供できるかどうかについては、まだ結論が出ていません。

今後数年間でセンサーのコストが下がれば、悪天候時の安全性を向上させるために新たなセンサーを追加できるようになるかもしれません。ただし、あらゆる条件や極端な状況で安全性を確保するのに十分であると考えられる一定数のセンサーを OEM が標準化するには、長い時間がかかる可能性があります。

<<: 

>>:  Salesforceは、20のコードタスクSOTAをリフレッシュするために、新しい基本的なLLMシリーズのエンコーダー/デコーダーコードT5 +を提案しています。

ブログ    
ブログ    

推薦する

Geek+がダブル11の結果を発表:中国最大のインテリジェント倉庫ロボットネットワークが72時間で811万件の注文を配達

中国・北京(2019年11月21日) – 世界的に有名な知能ロボット企業であるG​​eek+は、今年...

トピックモデルに適した定量評価指標を見つけるにはどうすればよいでしょうか?これは人気のある方法の要約です

LDA (潜在的ディリクレ分布) や Biterm などの統計トピック モデルを適用することで、大量...

...

9 トピック PyTorch での畳み込みニューラル ネットワーク (CNN) の実装

この写真をまだ覚えていますか?ディープシステムでは、52 個のオブジェクト検出モデルが導入されていま...

AIがPythonの記述を手助けし、インストールはたった5ステップで完了し、自由に調整できます。

[[269874]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...

GoogleはAIを活用して古い地図情報を更新

Google はブログ投稿で、同社の AI がさまざまな要素を分析して、こうした更新を行うべきかどう...

AIoTとは何ですか?なぜそれが突然、インテリジェント製造の主流トレンドになったのでしょうか?

人工知能(AI)とモノのインターネット(IoT)の組み合わせにより、自律走行車やスマートウェアラブル...

ビッグデータと人工知能の分野で初心者から専門家になるためのガイド

私たちは「技術の爆発」と「共有とオープンソース」の時代に生きています。先進技術の更新と反復の速度は、...

...

あなたは人工知能についてどれくらい知っていますか?普通の人として、私たちはもっと多くのことを知る能力を持っているのでしょうか?

それはとても神秘的で、本当にハイエンドで、急速に発展しています!それは私たちの周りにあり、あなたは気...

今後 10 年間で人工知能が私たちの生活を支配するようになるとき、携帯電話はどのようなものになるでしょうか?

テクノロジー業界のほとんどの人は、今後 10 年以内にユビキタス テクノロジーが 1 日のあらゆる瞬...

人工知能ネットワークが教育に与える影響を探る

教育業界は、テクノロジーの継続的な進歩によって大きなパラダイムシフトを経験しています。人工知能(AI...

IT 労働者の皆さん、AI があなたの仕事を「奪う」ためにやって来ています!今回はデータセンターからスタートします

[[349442]]人工知能に関する議論は現在、自動運転車、チャットボット、デジタルツイン、ロボット...

...