この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 2D 画像で 3D オブジェクト検出を行うのは難しいですか? 今では、携帯電話だけでリアルタイムに行うことができます。 これはGoogle AIが本日リリースした、3Dオブジェクトをリアルタイムで検出できるパイプライン、MediaPipe Objectronです。 別途: MediaPipe は、さまざまなモードの知覚データを処理するためのパイプラインを構築するためのオープンソースのクロスプラットフォーム フレームワークです。 Objectron は、モバイル デバイス上でオブジェクト指向の 3D 境界ボックスをリアルタイムで計算します。 日常生活の物体を検知できます。効果を見てみましょう。 モバイル デバイス上でオブジェクトの位置、方向、サイズをリアルタイムで判断できます。 このパイプラインは、2D 画像内のオブジェクトを検出し、機械学習モデルを使用してそのポーズとサイズを推定します。 それで、具体的にはどうやってこれを実現するのでしょうか? 現実世界から3Dデータを取得する3D データセットは 2D データセットに比べて非常に制限されていることがわかっています。 この問題に対処するため、Google AI の研究者は、モバイル拡張現実 (AR) セッション データを使用した新しいデータ パイプラインを開発しました。 現在、ほとんどのスマートフォンには拡張現実機能が搭載されており、カメラのポーズ、スパース 3D ポイント クラウド、推定照明、平面などの追加情報をその過程でキャプチャします。 研究者らは、グラウンドトゥルースデータにラベルを付けるために新しい注釈ツールを構築し、それを AR セッションデータとともに使用して、注釈者がオブジェクトの 3D 境界ボックスにすばやくラベルを付けられるようにしました。 このツールは、下の図に示すように、分割画面ビューを使用して 2D ビデオ フレームを表示します。 左側には重ね合わせた 3D 境界ボックスがあり、右側には 3D ポイント クラウド、カメラの位置、検出面を示すビューがあります。 注釈者は 3D ビューに 3D 境界ボックスを描画し、2D ビデオ フレームでの投影を見てその位置を確認します。 静的オブジェクトの場合、1 つのフレーム内の 1 つのオブジェクトに注釈を付け、AR セッション データからのグラウンド トゥルース カメラの姿勢情報を使用してその位置をすべてのフレームに伝播するだけで済みます。 これにより、プロセスが非常に効率的になります。 AR合成データ生成予測の精度を向上させるために、現在一般的な方法は、現実世界のデータを合成 3D データで「埋め込む」ことです。 しかし、これによって生成されるデータは非常に非現実的なものになることが多く、大量の計算作業も必要になります。 Google AI は、 AR 合成データ生成という新しい方法を提案しました。 これにより、研究者はカメラの姿勢、検出された平面、推定された照明を使用して、物理的に可能な位置とシーンに一致する照明の位置を生成できます。 このアプローチにより、高品質の合成データが生成され、実際のデータと組み合わせて使用することで、精度を約 10% 向上させることができました。 3D オブジェクト検出のための機械学習パイプラインこの目標を達成するために、研究者らは、RGB 画像から物体の姿勢と物理的なサイズを予測する単一段階のモデルを構築しました。 モデル バックボーンには、MobileNetv2 に基づくエンコーダー/デコーダー アーキテクチャがあります。 検出と回帰を通じてオブジェクトの形状を共同で予測するために、マルチタスク学習アプローチも採用されています。 形状タスクの場合、オブジェクトの形状信号は、利用可能なグラウンド トゥルース注釈 (セグメンテーションなど) に基づいて予測されます。検出タスクの場合、注釈付きの境界ボックスが使用され、ボックスの重心を中心とし、ボックスのサイズに比例した標準偏差を持つガウス分布がボックスにフィットされます。 検出の目的は、この分布を予測することであり、そのピークはオブジェクトの中心位置を表します。 回帰タスクは、境界ボックスの 8 つの頂点の 2D 投影を推定します。境界ボックスの最終的な 3D 座標を取得するために、オブジェクトのサイズを知らなくてもオブジェクトの 3D 境界ボックスを復元できる、確立されたポーズ推定アルゴリズム (EPnP) も利用されます。 3D バウンディング ボックスを使用すると、オブジェクトのポーズとサイズを簡単に計算できます。 このモデルは非常に軽量で、モバイル デバイス上でリアルタイムに実行できます。 MediaPipe での検出と追跡このモデルをモバイル デバイスで使用すると、各フレームの 3D 境界ボックスのあいまいさにより、モデルが「ジッター」する可能性があります。 この状況を緩和するために、研究者らは「2D ワールド」で最近公開された検出 + 追跡フレームワークを採用しました。 このフレームワークにより、フレームごとにネットワークを実行する必要性が軽減され、パイプラインでリアルタイムのパフォーマンスを維持しながら、より大規模で正確なモデルが可能になります。 モバイル パイプラインの効率をさらに向上させるために、モデル推論は数フレームごとに 1 回だけ実行します。 最後に、このような素晴らしいプロジェクトがもちろんオープンソース化されました。 下のリンクをクリックして試してみてください〜 ポータルGitHub プロジェクト アドレス: Google AI ブログ: |
<<: テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用
データ分析と人工知能 (AI) 市場に関するニュースをフォローしている人なら誰でも、過去数年間で多く...
史上最大のチューリングテストの予備結果が出ました!今年 4 月中旬、AI 21 Lab は楽しいソー...
現在、人工知能が何であるかをまだよく理解していない人がたくさんいます。今日は、人工知能の主要な技術と...
[[286539]]ビッグデータダイジェスト制作著者: 張大毓如、陳若夢春節が近づいてきました!叔母...
ビッグデータダイジェスト制作AIサークルが爆発した! Microsoft が立ち上げた LONGNE...
1. 英語教育と学習の現状現在、我が国の英語教育は大きな進歩を遂げていますが、依然として我が国の発展...
[[397532]]この記事はWeChatの公開アカウント「ブロックチェーン研究室」から転載したもの...
人工知能はもはや未来の技術ではありません。私たちの日常の作業を自動化する機械はますます賢くなり、人工...
12月7日、Meta、OpenAI、Microsoftは、現地時間水曜日のAMD投資家向けイベントで...
生成 AI テクノロジーは、単純なフレーズを驚くほどリアルな画像に変換し、世界中の人々の想像力をかき...