Google AIオープンソース:携帯電話で3D物体検出が可能、しかもリアルタイム

Google AIオープンソース:携帯電話で3D物体検出が可能、しかもリアルタイム

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

2D 画像で 3D オブジェクト検出を行うのは難しいですか?

今では、携帯電話だけでリアルタイムに行うことができます。

これはGoogle AIが本日リリースした、3Dオブジェクトをリアルタイムで検出できるパイプライン、MediaPipe Objectronです。

別途:

MediaPipe は、さまざまなモードの知覚データを処理するためのパイプラインを構築するためのオープンソースのクロスプラットフォーム フレームワークです。

Objectron は、モバイル デバイス上でオブジェクト指向の 3D 境界ボックスをリアルタイムで計算します。

日常生活の物体を検知できます。効果を見てみましょう。

モバイル デバイス上でオブジェクトの位置、方向、サイズをリアルタイムで判断できます。

このパイプラインは、2D 画像内のオブジェクトを検出し、機械学習モデルを使用してそのポーズとサイズを推定します。

それで、具体的にはどうやってこれを実現するのでしょうか?

現実世界から3Dデータを取得する

3D データセットは 2D データセットに比べて非常に制限されていることがわかっています。

この問題に対処するため、Google AI の研究者は、モバイル拡張現実 (AR) セッション データを使用した新しいデータ パイプラインを開発しました。

現在、ほとんどのスマートフォンには拡張現実機能が搭載されており、カメラのポーズ、スパース 3D ポイント クラウド、推定照明、平面などの追加情報をその過程でキャプチャします。

研究者らは、グラウンドトゥルースデータにラベルを付けるために新しい注釈ツールを構築し、それを AR セッションデータとともに使用して、注釈者がオブジェクトの 3D 境界ボックスにすばやくラベルを付けられるようにしました。

このツールは、下の図に示すように、分割画面ビューを使用して 2D ビデオ フレームを表示します。

左側には重ね合わせた 3D 境界ボックスがあり、右側には 3D ポイント クラウド、カメラの位置、検出面を示すビューがあります。

注釈者は 3D ビューに 3D 境界ボックスを描画し、2D ビデオ フレームでの投影を見てその位置を確認します。

静的オブジェクトの場合、1 つのフレーム内の 1 つのオブジェクトに注釈を付け、AR セッション データからのグラウンド トゥルース カメラの姿勢情報を使用してその位置をすべてのフレームに伝播するだけで済みます。

これにより、プロセスが非常に効率的になります。

AR合成データ生成

予測の精度を向上させるために、現在一般的な方法は、現実世界のデータを合成 3D データで「埋め込む」ことです。

しかし、これによって生成されるデータは非常に非現実的なものになることが多く、大量の計算作業も必要になります。

Google AI は、 AR 合成データ生成という新しい方法を提案しました。

これにより、研究者はカメラの姿勢、検出された平面、推定された照明を使用して、物理的に可能な位置とシーンに一致する照明の位置を生成できます。

このアプローチにより、高品質の合成データが生成され、実際のデータと組み合わせて使用​​することで、精度を約 10% 向上させることができました。

3D オブジェクト検出のための機械学習パイプライン

この目標を達成するために、研究者らは、RGB 画像から物体の姿勢と物理的なサイズを予測する単一段階のモデルを構築しました。

モデル バックボーンには、MobileNetv2 に基づくエンコーダー/デコーダー アーキテクチャがあります。

検出と回帰を通じてオブジェクトの形状を共同で予測するために、マルチタスク学習アプローチも採用されています。

形状タスクの場合、オブジェクトの形状信号は、利用可能なグラウンド トゥルース注釈 (セグメンテーションなど) に基づいて予測されます。検出タスクの場合、注釈付きの境界ボックスが使用され、ボックスの重心を中心とし、ボックスのサイズに比例した標準偏差を持つガウス分布がボックスにフィットされます。

検出の目的は、この分布を予測することであり、そのピークはオブジェクトの中心位置を表します。

回帰タスクは、境界ボックスの 8 つの頂点の 2D 投影を推定します。境界ボックスの最終的な 3D 座標を取得するために、オブジェクトのサイズを知らなくてもオブジェクトの 3D 境界ボックスを復元できる、確立されたポーズ推定アルゴリズム (EPnP) も利用されます。

3D バウンディング ボックスを使用すると、オブジェクトのポーズとサイズを簡単に計算できます。

このモデルは非常に軽量で、モバイル デバイス上でリアルタイムに実行できます。

MediaPipe での検出と追跡

このモデルをモバイル デバイスで使用すると、各フレームの 3D 境界ボックスのあいまいさにより、モデルが「ジッター」する可能性があります。

この状況を緩和するために、研究者らは「2D ワールド」で最近公開された検出 + 追跡フレームワークを採用しました。

このフレームワークにより、フレームごとにネットワークを実行する必要性が軽減され、パイプラインでリアルタイムのパフォーマンスを維持しながら、より大規模で正確なモデルが可能になります。

モバイル パイプラインの効率をさらに向上させるために、モデル推論は数フレームごとに 1 回だけ実行します。

最後に、このような素晴らしいプロジェクトがもちろんオープンソース化されました。

下のリンクをクリックして試してみてください〜

ポータル

GitHub プロジェクト アドレス:
https://github.com/google/mediapipe/blob/master/mediapipe/docs/objectron_mobile_gpu.md

Google AI ブログ:
https://ai.googleblog.com/2020/03/real-time-3d-object-detection-on-mobile.html

<<:  テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用

>>:  人工知能技術が伝染病の予防と制御に役立つ

ブログ    
ブログ    
ブログ    

推薦する

...

...

世界銀行:ロボットはまだ私たちの仕事を奪ってはいない

[[254699]]人間が機械に取って代わられるという悲観的な予測が広まっているにもかかわらず、自動...

...

新しい顔認識ツール: 少ないデータでも「国際的な顔」を認識

最近、アマゾンの顔認識ツールが米国議会議員28名を犯罪者と誤って照合し、注目を集めた。顔認識ツールは...

Ocado が機械学習を活用して食品廃棄を減らし、飢餓と闘う方法

[[282701]] [51CTO.com クイック翻訳] 食品廃棄は世界中で大きな問題となっていま...

...

[ディープラーニングシリーズ] PaddlePaddle と Tensorflow を使用したクラシック CNN ネットワーク GoogLeNet の実装

以前、LeNet、AlexNet、Vgg についてお話しましたが、今週は GoogLeNet につい...

人間の目に匹敵する視覚:この画期的な光学センサーは人間の網膜を模倣し、AIに大きな進歩をもたらすことが期待されています。

視覚、聴覚、嗅覚、味覚、触覚は、人間の最も基本的な五感です。その中でも、視覚は極めて重要です。結局の...

ジェネレーティブ AI がデータ センターの要件をどのように変えるか

データ センターとは何ですか。どのように使用しますか。具体的には、データ センターにはどのような種類...

マスク:オプティマスプライムと歩く

テスラのロボットが服を畳むという現象が、今、大流行している。数日後、マスク氏はオプティマスプライムが...

次世代小売テクノロジー: IoT、AI、5G がショッピング体験に与える影響

今日の小売ショッピング体験は、データを活用しカスタマイズと体験を実現することがすべてです。モノのイン...

アルトマン:解雇されて戻ってくるのは辛かったが、OpenAIにとっては良いことだ

1月8日、OpenAIのCEOサム・アルトマン氏は、タイム誌編集長とのインタビューで、昨年末に同社と...

...