この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 2D 画像で 3D オブジェクト検出を行うのは難しいですか? 今では、携帯電話だけでリアルタイムに行うことができます。 これはGoogle AIが本日リリースした、3Dオブジェクトをリアルタイムで検出できるパイプライン、MediaPipe Objectronです。 別途: MediaPipe は、さまざまなモードの知覚データを処理するためのパイプラインを構築するためのオープンソースのクロスプラットフォーム フレームワークです。 Objectron は、モバイル デバイス上でオブジェクト指向の 3D 境界ボックスをリアルタイムで計算します。 日常生活の物体を検知できます。効果を見てみましょう。 モバイル デバイス上でオブジェクトの位置、方向、サイズをリアルタイムで判断できます。 このパイプラインは、2D 画像内のオブジェクトを検出し、機械学習モデルを使用してそのポーズとサイズを推定します。 それで、具体的にはどうやってこれを実現するのでしょうか? 現実世界から3Dデータを取得する3D データセットは 2D データセットに比べて非常に制限されていることがわかっています。 この問題に対処するため、Google AI の研究者は、モバイル拡張現実 (AR) セッション データを使用した新しいデータ パイプラインを開発しました。 現在、ほとんどのスマートフォンには拡張現実機能が搭載されており、カメラのポーズ、スパース 3D ポイント クラウド、推定照明、平面などの追加情報をその過程でキャプチャします。 研究者らは、グラウンドトゥルースデータにラベルを付けるために新しい注釈ツールを構築し、それを AR セッションデータとともに使用して、注釈者がオブジェクトの 3D 境界ボックスにすばやくラベルを付けられるようにしました。 このツールは、下の図に示すように、分割画面ビューを使用して 2D ビデオ フレームを表示します。 左側には重ね合わせた 3D 境界ボックスがあり、右側には 3D ポイント クラウド、カメラの位置、検出面を示すビューがあります。 注釈者は 3D ビューに 3D 境界ボックスを描画し、2D ビデオ フレームでの投影を見てその位置を確認します。 静的オブジェクトの場合、1 つのフレーム内の 1 つのオブジェクトに注釈を付け、AR セッション データからのグラウンド トゥルース カメラの姿勢情報を使用してその位置をすべてのフレームに伝播するだけで済みます。 これにより、プロセスが非常に効率的になります。 AR合成データ生成予測の精度を向上させるために、現在一般的な方法は、現実世界のデータを合成 3D データで「埋め込む」ことです。 しかし、これによって生成されるデータは非常に非現実的なものになることが多く、大量の計算作業も必要になります。 Google AI は、 AR 合成データ生成という新しい方法を提案しました。 これにより、研究者はカメラの姿勢、検出された平面、推定された照明を使用して、物理的に可能な位置とシーンに一致する照明の位置を生成できます。 このアプローチにより、高品質の合成データが生成され、実際のデータと組み合わせて使用することで、精度を約 10% 向上させることができました。 3D オブジェクト検出のための機械学習パイプラインこの目標を達成するために、研究者らは、RGB 画像から物体の姿勢と物理的なサイズを予測する単一段階のモデルを構築しました。 モデル バックボーンには、MobileNetv2 に基づくエンコーダー/デコーダー アーキテクチャがあります。 検出と回帰を通じてオブジェクトの形状を共同で予測するために、マルチタスク学習アプローチも採用されています。 形状タスクの場合、オブジェクトの形状信号は、利用可能なグラウンド トゥルース注釈 (セグメンテーションなど) に基づいて予測されます。検出タスクの場合、注釈付きの境界ボックスが使用され、ボックスの重心を中心とし、ボックスのサイズに比例した標準偏差を持つガウス分布がボックスにフィットされます。 検出の目的は、この分布を予測することであり、そのピークはオブジェクトの中心位置を表します。 回帰タスクは、境界ボックスの 8 つの頂点の 2D 投影を推定します。境界ボックスの最終的な 3D 座標を取得するために、オブジェクトのサイズを知らなくてもオブジェクトの 3D 境界ボックスを復元できる、確立されたポーズ推定アルゴリズム (EPnP) も利用されます。 3D バウンディング ボックスを使用すると、オブジェクトのポーズとサイズを簡単に計算できます。 このモデルは非常に軽量で、モバイル デバイス上でリアルタイムに実行できます。 MediaPipe での検出と追跡このモデルをモバイル デバイスで使用すると、各フレームの 3D 境界ボックスのあいまいさにより、モデルが「ジッター」する可能性があります。 この状況を緩和するために、研究者らは「2D ワールド」で最近公開された検出 + 追跡フレームワークを採用しました。 このフレームワークにより、フレームごとにネットワークを実行する必要性が軽減され、パイプラインでリアルタイムのパフォーマンスを維持しながら、より大規模で正確なモデルが可能になります。 モバイル パイプラインの効率をさらに向上させるために、モデル推論は数フレームごとに 1 回だけ実行します。 最後に、このような素晴らしいプロジェクトがもちろんオープンソース化されました。 下のリンクをクリックして試してみてください〜 ポータルGitHub プロジェクト アドレス: Google AI ブログ: |
<<: テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用
[[254699]]人間が機械に取って代わられるという悲観的な予測が広まっているにもかかわらず、自動...
1 枚の画像を生成するのに 10 ミリ秒かかり、1 分間に 6,000 枚の画像を生成します。これは...
最近、アマゾンの顔認識ツールが米国議会議員28名を犯罪者と誤って照合し、注目を集めた。顔認識ツールは...
[[282701]] [51CTO.com クイック翻訳] 食品廃棄は世界中で大きな問題となっていま...
以前、LeNet、AlexNet、Vgg についてお話しましたが、今週は GoogLeNet につい...
視覚、聴覚、嗅覚、味覚、触覚は、人間の最も基本的な五感です。その中でも、視覚は極めて重要です。結局の...
データ センターとは何ですか。どのように使用しますか。具体的には、データ センターにはどのような種類...
テスラのロボットが服を畳むという現象が、今、大流行している。数日後、マスク氏はオプティマスプライムが...
今日の小売ショッピング体験は、データを活用しカスタマイズと体験を実現することがすべてです。モノのイン...
1月8日、OpenAIのCEOサム・アルトマン氏は、タイム誌編集長とのインタビューで、昨年末に同社と...