台湾メディアiThome.com.twによると、Googleは2018年のACMマルチメディアカンファレンスで機械学習を使った画像注釈インターフェースを発表し、ユーザーは画像内のオブジェクトの輪郭とラベルを素早くマークできるようになり、全体的なタグ付け速度が3倍に向上したという。最新のディープラーニングベースのコンピューター ビジョン モデルのパフォーマンスはラベル付けされたトレーニング データの量に依存するため、データベースが大きいほど機械学習のパフォーマンスが向上します。 Google は多くのディープラーニング研究で、高品質のトレーニング データを取得するのは容易ではないと繰り返し述べており、この問題はコンピューター ビジョンの開発、特に自動運転、ロボット工学、画像検索などのピクセルベースの認識タスクにおける主なボトルネックとなっています。 従来の方法では、ユーザーは手動でラベル付けツールを使用して、画像内のオブジェクトの境界を囲む必要があります。Google は、COCO plus Stuff データセットを使用すると、画像にラベルを付けるには 19 分、データセット全体にラベルを付けるには 53,000 時間かかり、時間がかかりすぎて非効率的であると述べています。そこで Google は、機械学習を使用してユーザーが画像内のオブジェクトの輪郭のラベルをすばやく見つけられるようにする新しいトレーニング データ ラベリング方法である Fluid Annotation を検討しました。 Fluid アノテーションは、強力なセマンティック セグメンテーション モデルの出力から始まります。ユーザーは、機械学習によって支援された自然なユーザー インターフェイスを使用して、それを編集および変更できます。このインターフェイスは、修正する必要があるオブジェクトと順序をユーザーに提供し、マシンがまだ明確に識別できない部分にユーザーが集中できるようにします。画像に注釈を付けるために、Google は分類ラベルと信頼スコアが付いた約 1,000 枚の画像を使用してセマンティック セグメンテーション モデル (Mask-RCNN) を事前トレーニングしました。最も信頼度の高いセグメントは、最初のラベル付けに使用できます。 Fluid Annotation は、ユーザーが 1 回のクリックでオブジェクトにすばやくラベルを付けるための候補リストを生成します。また、ユーザーは、検出されていないオブジェクトをカバーする範囲マーカーを追加し、スクロールして最も適切な形状を選択することもできます。追加できるだけでなく、既存のオブジェクト タグを削除したり、オブジェクトの深度順序を変更したりすることもできます。 流動的な注釈付けの現在のフェーズの目標は、画像をより速く簡単に作成し、データセット全体のラベル付け速度を最大 3 倍に向上させることです。次に、Google はオブジェクト境界のラベル付けを改善し、より多くの人工知能を使用してインターフェース操作を高速化し、現在認識できないカテゴリを処理できるようにインターフェースを拡張します。 |
<<: 人工知能は人間の言語を習得したのか?見た目は騙されることがある
>>: 中国では普及していない無人コンビニが、なぜアメリカでは人気があるのか?
[51CTO.com クイック翻訳] 多くの人工知能コンピュータシステムの中核技術は、人間の脳の生...
[[421393]]この記事はWeChatの公開アカウント「3分でフロントエンドを学ぶ」から転載した...
AI を活用したデータ分析は、世界中の多くの企業にとって非常に役立つものになりつつあります。ますます...
サンノゼ — 2024年2月20日— F5(NASDAQ: FFIV)は先日、アプリケーションセキュ...
「新インフラ」は中国の「産業インテリジェンス」に強力な新たな原動力をもたらした。インテリジェント時...
[[377158]]研究によれば、コロナウイルスのパンデミック中に組織が確立したビジネス規範は、パン...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
夕食後に AI について話さないと、社会の一員ではないような気がします。しかし、ネットワーク インテ...
2018年の初め、アリババは人工知能の分野での最新の成果を発表しました。人工知能に関するトップ学術...
革命的な新しい人工知能プログラムは、画像の欠けている部分をすべて完璧に再現できることをすぐに納得させ...
近い将来、人間はロボットにやり方を一度見せるだけで、タスクの実行方法を教えることができるようになるか...
現在、JavaScript および TypeScript リポジトリで開発およびテストが行われて...