懐疑論者は、完全な自動運転の実現は業界が考えているよりもずっと先のことかもしれないと述べている。
1. 完全自動運転車はもうすぐ登場するのでしょうか? 大企業の CEO の言うことを信じるなら、完全自動運転車が実現するのはほんの数か月先のことのように思えます。 2015年、イーロン・マスクは、グーグルと同様に、テスラが2018年までに完全自動運転車を発売すると予測した。 デルファイとモービルアイは2019年にレベル4のシステムを立ち上げる計画で、ヌートノミーは同年にシンガポールの路上に何千台もの無人タクシーを配備する計画だ。 ゼネラル・モーターズ社が2019年にハンドルも運転手の介入もない完全自動運転車の生産を開始する計画といった予測の背後には、ソフトウェアが誇大宣伝を実現できると企業が賭けて資金を投入していることがある。 表面的には、完全自動運転車がすぐそこまで来ているように思えます。 ウェイモはすでにアリゾナ州の一部の公道で自社の車両のテストを開始している。テスラ社などの企業も、限定的な自動運転機能を備えた車の販売を開始しているが、予期せぬ事態が発生した場合には依然としてドライバーの介入に頼っている。 最近、死亡事故もいくつか発生していますが、システムが改良され続ける限り、論理的には人間の介入なしの自動運転車が実現する日もそう遠くないでしょう。しかし、完全な自動運転車の夢は私たちが考えるよりも遠いかもしれない。 人工知能の専門家は、自動運転システムが確実に事故を回避できるようになるまでには何年も、あるいは何十年もかかるかもしれないと懸念を強めている。自己学習型システムは現実世界の混乱に対処できるが、ニューヨーク大学のゲイリー・マーカス氏などの専門家は、この問題の再検討は避けられないと考えており、これを「AIの冬」と呼ぶ人もいる。このような遅れにより、完全自動運転車が一世代にわたって利用できなくなる可能性があり、自動運転技術に依存している企業にとって悲惨な結果をもたらすことになる。 2. ディープラーニングの一般的な応用はまだ成熟していない 自動車会社が自動運転に楽観的な理由は簡単に理解できます。 過去 10 年間で、ディープラーニング (階層化された機械学習アルゴリズムを使用して膨大なデータセットから構造化された情報を抽出する方法) は、人工知能とテクノロジー業界で驚異的な進歩を遂げました。ディープラーニングは、Google 検索、Facebook のニュースフィード、会話の音声をテキストに書き起こすアルゴリズム、囲碁の打ち方システムに採用されています。 インターネット以外にも、地震の検知、心臓発作の予測、カメラによる行動の監視など、数え切れないほどのイノベーションに機械学習を活用しています。しかし、ディープラーニングが適切に機能するには、アルゴリズムが遭遇する可能性のあるほぼすべての状況をカバーする大量のトレーニング データが必要です。たとえば、Google 画像のようなシステムは、それぞれの動物の外見を示すトレーニング データがあれば、動物を識別するのに非常に優れています。 マーカス氏はこのタスクを「補間」と呼んでいます。これは、「ocecat」というラベルの付いたすべての画像をスキャンし、新しい画像が同じグループに属しているかどうかを判断する作業です。エンジニアはデータのソースと構造を工夫することができますが、既存のアルゴリズムの範囲は厳しく制限されています。同じアルゴリズムであっても、オセロットの写真を何千枚も見なければ、オセロットを認識することはできません。たとえ、そのアルゴリズムが飼い猫とジャガーの写真を見て、オセロットがその中間であることを知っていたとしてもです。一般化と呼ばれるこのプロセスには、異なる一連の技術が必要です。 研究者たちは長い間、アルゴリズムを正しくすることで一般化が向上したと考えてきたが、最近の研究では、従来のディープラーニングは一般化が思っていたよりも劣っていることが示唆されている。 ある研究によると、従来のディープラーニングシステムでは、ビデオの異なるフレーム間で一般化することさえ困難であり、背景がわずかに変化すると、ディープラーニングは同じホッキョクグマをヒヒ、マングース、イタチと間違えてしまうことがわかった。 各分類には数百の要素が集約されるため、画像の小さな変化でもシステムの判断に大きな影響を与える可能性があります。この現象は、他の研究者によって敵対的データセットとして使用されています。 3. 自動運転車は深刻な問題を抱えている マーカス氏は、チャットボットの流行を、誇大宣伝と一般化の問題の最近の例として挙げています。 「2015年にチャットボットを約束しましたが、それらはデータ収集だけなので役に立ちません」と彼は言いました。オンラインで人と話すとき、以前の会話をもう一度やり直したいとは思わないでしょう。幅広い会話スキルを使って、ユニークな返答をし、あなたの発言に反応してもらいたいのです。 ディープラーニングではそのようなチャットボットを構築することはできません。当初の誇大宣伝の後、企業はチャットボット プロジェクトに対する信頼を失い、現在でも積極的に開発を行っている企業はほとんどありません。 これは、テスラや他の自動運転企業にとって恐ろしい疑問を提起する。画像検索、音声認識、その他の AI の成功と同様に、自動運転車も進化し続けるのだろうか?チャットボットのように、一般化で行き詰まってしまうのだろうか? 自動運転は補間または一般化の問題でしょうか? 運転は本当に予測不可能なのでしょうか? それを判断するには時期尚早かもしれません。 「自動運転車は答えが分からない科学実験のようなものだ」とマーカス氏は語った。 私たちはこれまでこのレベルの自動運転を実現したことがないので、それがどのようなタスクなのかはわかりません。 身近な物体を認識し、ルールに従うことを必要とする範囲では、既存の技術で対応できるはずです。しかしマーカス氏は、事故が起きやすい状況での運転は業界が認めているよりも複雑かもしれないと懸念している。 「新たな状況の出現はディープラーニングにとって良いことではありません。」 私たちの実験のデータは公開された事故報告書から得たもので、それぞれが珍しい謎を提起しています。 2016年のテスラ車の事故では、モデルS車がトレーラーの高さと太陽光の反射により、全速力で白いセミトレーラーの後部に衝突した。今年3月には、ウーバーの自動運転車が道路を自転車を押して横断していた女性(交通規則違反)をはねて死亡させた。 NTSBの報告書によると、ウーバーのソフトウェアは予測を行う際に、まず女性を未確認物体と誤認し、次に自転車と誤認し、最後に自転車と誤認した。 カリフォルニア州で起きたテスラの事故では、モデルXが障害物に進路を変え、衝突前に加速したが、原因はまだ不明である。それぞれの事故は、エンジニアが事前に予測できないことの極端な例であるように思われます。しかし、ほぼすべての自動車事故には何らかの予測不可能な状況が伴い、一般化可能な能力がなければ、自動運転車はこれらの状況のそれぞれに初めてであるかのように対処しなければならないでしょう。その結果、時間の経過とともに頻度や危険性が減ることのない一連の事故が発生することになります。懐疑論者にとっては、手動アクション報告なしへの移行は、この状況が継続し、ある程度の安定性がもたらされることを示唆している。元百度幹部で、業界で最も著名な推進者の一人であるDrive.AIの創設者アンドリュー・ン氏は、問題は完璧な運転システムを構築することではなく、自動運転車の行動を予測できるよう傍観者を訓練することだと考えている。 つまり、車にとって安全な道路を提供できるのです。予測不可能なケースの例として、私は彼に、たとえ一度も見たことがない歩行者がポゴスティックで遊んでいる場合でも、現代のシステムは対処できると思うかと尋ねました。 「多くの自動運転車チームは、横断歩道で跳ねるポールで遊ぶ歩行者には対処できると思います」とン氏は私に語った。「とはいえ、高速道路で跳ねるポールで遊ぶのは非常に危険です」。同氏は「AIで跳ねるポールの問題を解決するのではなく、政府と協力して合法性を要求し、人々の理解を得るべきです。安全運転はAI技術の品質だけの問題ではありません」と語った。 4. 自動運転車に対する期待を抑えるべき ディープラーニングは唯一の AI テクノロジーではなく、多くの企業がすでに代替手段を模索しています。 これらの技術は業界で厳重に守られていますが(最近のWaymoによるUberに対する訴訟を見ればわかります)、多くの企業はルールベースのAIに目を向けています。これは、エンジニアが特定の動作やロジックを、本来は自己誘導型のシステムにハードコードできるようにする古い手法です。データを学習して自身の動作をプログラムする機能(まさにこれがディープラーニングの注目を集めている点)はありませんが、これにより企業はディープラーニングの限界の一部を回避することができます。 ディープラーニングが基本的な認識タスクに与える影響は依然として非常に大きいため、エンジニアが潜在的なエラーをどのようにしてうまく検出できるかを言うのは困難です。 リフトの取締役を務めるベンチャーキャピタリストのアン・ミウラ・コ氏は、自動運転車自体への期待が高すぎるため、完全な自動運転の実現が失敗だと人々が考えることが問題の一部だと考えていると述べた。 「レベル0からレベル5に飛躍できると期待するのは、技術の失敗ではなく、むしろ過度の期待です」とミウラ・コ氏は言う。「こうした小さな改善のすべてが、完全自動運転の実現に非常に重要な意味を持つと思います。」 しかし、自動運転車が現在の苦境にいつまで留まるかは不明だ。テスラの自動運転車のような半自律型製品も、ほとんどの状況に対処できるほどスマートですが、予測できない状況が発生した場合は、依然として人間の介入が必要になります。何か問題が起きた場合、それが車の問題なのか運転手の問題なのかを見分けるのは難しい場合があります。 一部の批評家は、たとえミスが機械のせいだけではないとしても、このようなハイブリッド運転は人間の運転手よりも安全性が低いと考えている。 ランド研究所の調査によると、自動運転車が人間の運転手と同じくらい安全であることを証明するには、死亡事故を起こすことなく2億7500万マイル走行する必要があると推定されている。テスラの自動運転車による最初の死亡事故は、標準を大きく下回る約1億3000万マイル走行時に発生した。しかし、ディープラーニングを使用して車両が物体を認識する方法と対応方法を制御し、事故率を改善することは、見た目よりも難しい。 「これは単純で孤立した問題ではない」とデューク大学のメアリー・カミングス教授は、今年初めに歩行者を死亡させたウーバーの事故を指摘して語った。 「この歩行者死亡事故における認識と判断のサイクルには相互関係がある。認識の曖昧さが誤った判断(何もしない)につながり、センサーからの誤報が多すぎたためブレーキがかからなかった」この事故によりウーバーは夏季の自動運転車の実験を中止したが、これは他社の計画されている自動運転車の展開にとって不吉な兆候だ。 業界全体で、企業は、最も経験を積んだ企業が最も堅牢なシステムを構築するだろうという想定のもと、問題を解決するためにより多くのデータを入手しようと競い合っています。しかし、これらの企業が目にしたのはデータの問題であり、マーカスにとってそれは解決するのがはるかに難しい問題でした。 |
<<: 人工知能が人々を失業させるのは悪いことではありません。それどころか、それは良い役割を果たします。
>>: 最終的にAIによってモザイクが見破られたとき、私たちのプライバシーはどこに隠されるのでしょうか?
機械学習の専門家は、ニューラル ネットワーク図の描き方について心配する必要がなくなりました。論文やブ...
著者 | 李世馨翻訳者 | 朱 仙中編纂者:Qianshan人工知能に関する議論にはしばしば論争が伴...
自然言語処理は AI の最高峰であり、コーパス前処理は自然言語処理の基礎です。 [[336067]]...
この記事では、画像編集の最先端の手法を包括的に研究し、技術的なルートに基づいて 3 つの主要なカテゴ...
ルーティング アルゴリズムには通常、次の 1 つ以上の設計目標があります。最適化最適化とは、メトリッ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ロボットには、人間との感情的なつながりを築くように設計されたフレンドリーなロボットから、複雑なタスク...
2020 年には、すでに多くの楽しい機械学習チュートリアルが見つかります。この記事では、最も人気のあ...
[[205069]] 1. 数学的な定義順序保存回帰は回帰アルゴリズムの一種です。基本的な考え方は、...
今年4月、Metaは「Segment Everything(SAM)」AIモデルをリリースしました。...
モノのインターネットは大量のセンサーデータを生成すると予測されており、それが人工知能と組み合わさるこ...
[51CTO.com からのオリジナル記事] 8月8日は真夏の週末だったが、午前8時過ぎ、市外の工...
任意のポーズの写真を入力し、写真の人物に「指定された動画」の動きを真似してもらうのは簡単ではありませ...