自動運転車の運転分類と必要な処理能力

自動運転車の運転分類と必要な処理能力

今後 20 ~ 30 年で、自動運転車 (AV) は私たちの運転習慣や輸送業界を変え、社会全体に影響を及ぼすでしょう。 自動運転車は、車を玄関先まで呼び出して、使用後に送り出すことができるようになるだけでなく、個人の自動車所有という概念に挑戦し、環境と渋滞に良い影響を与えるでしょう。市場調査会社ABIリサーチは、2030年までに路上を走る車の4分の1が自動運転車になると予測している。

業界の専門家は、自動運転の開発に5つのレベルを定義しました。 各レベルは、車がドライバーからタスクと責任を引き継ぐ範囲、および車とドライバーが相互にやり取りする方法を説明します。 アダプティブ クルーズ コントロールなどの機能は、先進運転支援システム (ADAS) の例であり、レベル 1 の機能と見なされる場合があります。 現在市場に登場する新しい車両の中にはレベル 2 の機能を実現しているものもありますが、業界としては、完全な自動運転はおろか、ADAS システムの表面をほんの少しだけかじった程度にしか到達していません。

図: 自動運転の5つのレベル

自動運転のレベル

自動運転がさまざまなレベルに進むにつれて、ドライバーが「ハンドルから手を離し、ハンドルから目を離し、ハンドルから心を離す」ことができる完全自動化のビジョンを実現するには、処理能力が重要になります。 このレベルでは、車内の人は単なる乗客であり、運転手がいないため、ハンドルは必要ありません。 しかし、その目標を達成する前に、まず非自動運転と完全自動運転の間のさまざまなレベルを理解する必要があります。

ADAS/AV には、センシング、コンピューティング、アクチュエーションという 3 つの主要要素があります。

知覚を利用して、車両の周囲の現在の状態を捉えます。 これは、レーダー(長距離および中距離)、ライダー(長距離)、カメラ(短距離/中距離)、赤外線、超音波などのセンサーの組み合わせを使用して行われます。 これらの「感覚」はそれぞれ、周囲で「見る」もののバリエーションを捉えます。 このビューでは、車、歩行者、道路標識、動物、道路の曲がり角など、興味深く重要なオブジェクトが特定されます。

LIDAR、レーダー、カメラから見た車の視界の図

計算段階は意思決定段階です。 この段階では、さまざまな視点からの情報が統合され、車が「見ているもの」をよりよく理解できるようになります。 たとえば、そのシーンでは一体何が起こっているのでしょうか? 動いている物体はどこにありますか? 期待されるアクションは何ですか?そして、車はどのような是正措置を講じるべきでしょうか? 安全を確保するために、ブレーキをかけたり、別の車線に車線変更したりする必要がありますか?

最終段階である実行では、車がこの決定を適用してアクションを実行し、場合によってはドライバーに取って代わります。 それはブレーキをかけたり、加速したり、より安全な経路に向かってハンドルを切ったりすることかもしれません。ドライバーが警告に気づかず、間に合うように行動しなかったために衝突が差し迫っていたためかもしれませんし、あるいは完全な自律システムの標準的な操作かもしれません。

レベル 2 は実際には ADAS パスの出発点であり、自動緊急ブレーキ、車線逸脱警告、車線維持支援など、複数の個別の機能が安全ソリューション パッケージで実行される可能性があります。

2018年型アウディA8など、現在生産されている車の最先端技術であるレベル3は、ドライバーが一定時間「目を離す」ことはできるが、問題が発生した場合には直ちに運転を引き継ぐことができなければならないことを意味する。

レベル 4 とレベル 5 はどちらも、本質的に完全な自動運転を提供できます。 両者の違いは、レベル 4 の運転は、位置をミリメートル単位の精度で把握するために道路沿いのインフラに大きく依存するため、主要高速道路やスマート シティなどの地理的に緩衝されたエリアに限定されるという点です。

レベル 5 の車両はどこでも自動運転できるようになります。このレベルでは、車にはハンドルさえ付いていない可能性があり、座席がすべて前を向いているわけではない可能性があります。

自動運転に必要な処理能力

自動運転の各レベルでは、すべてのデータを処理するために必要な処理能力が急速に増加します。経験則として、あるレベルから次のレベルに進むにつれて、データ処理が 10 倍増加すると予想されます。 完全自動運転のレベル 4 および 5 では、数十テラフロップスの処理量が実現されます。

センサーの観点から見ると、以下の表は必要な量の目安を示しています。 レベル 4 と 5 では最大 8 台のカメラが必要になりますが、さらに多い台数が提案されています。 画像キャプチャデバイスの解像度は 2 メガピクセル、フレームレートは 1 秒あたり 30 ~ 60 フレームであるため、このすべての情報をリアルタイムで処理するのは膨大な処理タスクになります。車載レーダーについては、22GHzから77GHzまでの短距離、中距離、長距離(100m以上)のレーダーを組み合わせて使用​​する必要があり、その数は10個以上になる可能性がある。レベル 2 でも、カメラやレーダーから取得したデータに対してはまだ多くの処理が必要です。

図: 自動運転のさまざまなレベルとアプリケーション

処理能力については、カメラが何をする必要があるかに焦点を当てます。カメラは、前面のレーダーとともに、テス​​ラで使用されているようなオートパイロットを動かす主要なセンサーだからです。

カメラ システムは通常、広角シングル カメラまたはステレオ デュアル カメラであり、車両上で前方またはサラウンド ビュー (360°) 構成で構成されます。 レーダーやライダーとは異なり、カメラ検知デバイスの性能は入力を処理するソフトウェアの性能に左右されます。カメラの解像度は重要ですが、あなたが考えるほどではありません。

プロセスを簡素化するために、畳み込みニューラル ネットワーク (CNN) と呼ばれる重要なアルゴリズムを使用します。 CNN は、カメラ フィードから情報を抽出して区別するための高度に専門化された効率的な方法です。私たちの車の場合、カメラからの入力を受け取り、車線標示、障害物、動物などを認識します。 CNN は、レーダーや LiDAR が実行できるすべてのことに加え、交通標識の読み取り、信号機の検出、道路の構成など、さらに多くのことを行うことができます。実際、一部のティア 1 サプライヤーと自動車 OEM (Original Equipment Manufacturer) は、カメラとレーダーの組み合わせによるコスト削減を検討しています。

CNN は機械学習の要素を自動車に導入します。ニューラル ネットワークの構造は、一般的に私たち自身の脳の配線構造に基づいています。まず、実装するネットワークの種類と、レイヤー数による深さを選択する必要があります。 各レイヤーは、実際には前のレイヤーと次のレイヤー間の相互接続されたノードのセットです。ニューラル ネットワークを実装するには、大量のインテリジェント トレーニング データが適用されます。これは、ほとんどがオフラインで実行される、非常に計算負荷の高い操作です。道路状況の画像やビデオなどの各パスごとに、ネットワークは各レイヤー内の関連する要素を調整して学習します。トレーニング データを渡すと、何百万ものデータ分析からこれらの関連要素を改善できます。 トレーニングが完了すると、ネットワークと関連要素は、CPU または GPU コンピューティングや特定の CNN アクセラレータなどの構造にロードできるようになります。

このタイプのアルゴリズムとネットワークの利点の 1 つは、より新しい、またはより優れた関連要素で更新できるため、常に改善されることです。徹底的な比較の結果、GPU コンピューティング モードで実行される CNN は、現在のハイエンドの組み込みマルチコア CPU よりも 20 倍高速で、消費電力が大幅に少ないことがわかりました。同様に、CNN がハードウェア アクセラレーションに移行するにつれて、パフォーマンスが 20 倍向上し、電力効率も向上しています。

将来に向けて

自動運転車の未来に向かうにつれて、必要な計算能力はセンサーの数、フレーム レート、解像度に応じて増大します。 パフォーマンスと電力の両方の観点から、畳み込みニューラル ネットワークは画像データを解釈する最も効率的な方法になりつつあります。 これにより、処理能力をクラウドにオフロードして常時接続のセルラー接続に依存するのではなく、自動車の場合のように、ネットワークのエッジ、つまり車自体に、より多くの処理リソースを配置する傾向が生まれます。 自動運転は大きなチャンスであり、処理能力、アルゴリズム、トレーニング データを提供する人にとっては現実のものとなるでしょう。

イマジネーションテクノロジーズ、自動車アプリケーション担当ディレクター、ブライス・ジョンストン

<<:  TF Learn: Scikit-learn と TensorFlow をベースにしたディープラーニング ツール

>>:  目を覚ませ、自動運転車は皇帝の新しい服に過ぎない

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

顔認識セキュリティの脆弱性が再び明らかに、19のAndroidスマートフォンは15分でロック解除可能、必要なのはプリンター、A4用紙、メガネフレームだけ

最新の顔認識の脆弱性が明らかになり、テストされたすべての Android スマートフォンが脆弱である...

...

ロボットは人工知能技術に基づいて人間の表情を作る

信頼関係を築く上で、私たちの表情が果たす役割は非常に大きいにもかかわらず、ほとんどのロボットの顔はプ...

...

スマートカーのステアバイワイヤ技術の詳細な説明

電動化とインテリジェント化という2つの大きな発展の流れの下、わが国は機能車からスマート車への転換点に...

...

クラウドベースの生成 AI: 構築するか、購入するか?

デビッド・リンシカム編纂者 | Yan Zheng制作:51CTO テクノロジースタック(WeCha...

...

住宅街、公衆トイレ、ジム...「顔認識」はどこにでもあります。どこでも顔をスキャンする必要があるのでしょうか?

[[377911]]昨年12月中旬、上海市民の夏さんは徐匯河畔にレジャーに出かけ、「海上タワー」近...

AIが品質保証を向上させる6つのヒント

品質保証(QA)は多くの企業にとって重要な関心分野です。企業やサービスプロバイダーが高い品質を維持す...

アジア太平洋地域の銀行:人工知能の活用にはまだまだ成長の余地がある

[51CTO.com クイック翻訳]パーソナライズされた付加価値サービスに対するユーザーの需要に対応...

AI、ブロックチェーン、ビッグデータなど最先端の技術動向を明らかにする新刊書籍「風向」が発売

2018年12月8日、中国国家管弦楽団コンサートホールで、中国工業情報化出版メディアグループが主催し...

梅の花の山の上を歩くロボット犬?自転車は自分でバランスをとることができますか?テンセント・ロボティクスXラボ研究初の「開封」

テンセントは11月20日、移動ロボット研究における新たな進展を発表し、四足移動ロボット「ジャモカ」と...

オープンソースのコラボレーションを通じて AI を進化させる方法

[[377773]]人工知能は、業界団体によって大々的に宣伝され、推進されている用語の 1 つになっ...

ライトスピードコンピューティングが画期的な進歩を達成、AIトレーニングコストの問題が解決される可能性

画像出典: Visual China 1956年、アメリカの経済学者によって「人工知能」の概念が提唱...