最近、インペリアル・カレッジ・ロンドンの研究チームは、画像の内容を変えずに画像内容をスキャンするアルゴリズムを簡単に欺くことができる新しいアルゴリズムを提案し、人間の目には同じに見える写真がアルゴリズムの前では違って見えるようにした。これには、Apple の CSAM スキャン アルゴリズムが含まれます。
CSAM スキャン アルゴリズムとは何ですか?CSAM(児童性的虐待素材)は、今年初めにAppleが開始した提案です。具体的な内容は、違法画像の拡散を防ぐことです。Appleは、ユーザーが個人的に共有し、iCloudクラウドに保存した写真のハッシュ値を比較するアルゴリズムを特別に開発しました。写真がサードパーティの CSAM データベースと正常に一致した場合、Apple は写真をブロックするか、警察に通報するかを選択します。 ユーザーの写真情報への不正アクセスはユーザーのプライバシーを著しく侵害するものであることから、この提案は開始直後からユーザーやメディアから強い反対を受け、最終的に今年9月に撤回された。しかし、AppleはCSAMを諦めたわけではなく、その推進を2022年まで延期し、アルゴリズムをさらに改良することを約束した。 画像スキャンアルゴリズムは違法画像を正確に検出できますか?研究者たちは当初から、Apple が提案した CSAM スキャン アルゴリズムが、同社の主張どおりに違法な画像を正確に検出し、傍受できるかどうか疑問視していた。実際の研究結果によれば、Apple の CSAM も他の画像スキャン アルゴリズムも、違法画像を正確に検出することはできないことがわかっています。 研究者らは、論文では離散コサイン変換ベースのアルゴリズムに対する2つのホワイトボックス攻撃と1つのブラックボックス攻撃を提案し、画像上の固有の特徴をうまく変更してアルゴリズムのスキャンを回避するのに役立ったと説明した。 簡単に言えば、人間の目には同じに見える 2 つの画像が、アルゴリズムによって検出されたときに異なるように見えるようにするには、画像に特別なハッシュ フィルターを適用するだけです。 画像提供: インペリアル・カレッジ・ロンドン 画像スキャンアルゴリズムが「不正に操作される」のを防ぐにはどうすればよいでしょうか?画像スキャンアルゴリズムが「効果的に」機能し、アルゴリズムに騙されないことを保証するために、研究者らは2つの方法を提案した。1つは検出しきい値を拡大すること、もう1つは画像IDの一致が一定のしきい値に達した後にのみユーザーをマークすることである。 しかし、これら 2 つの方法はどちらも、画像スキャン結果の信頼性を根本的に高めることはできず、むしろ、ユーザーのプライバシーを侵害するなど、より多くの問題を引き起こすことになります。 参考文献: https://www.bleepingcomputer.com/news/technology/researchers-show-that-apple-s-csam-scanning-can-be-fooled-easily/ |
<<: AI 駆動型データ分析ツールが企業や組織にもたらすメリット
>>: 成功は AI のおかげであり、失敗も AI のおかげです。アメリカで最も成功している AI 不動産評価会社が危機に陥り、従業員 2,000 人を解雇。モデルは失敗しているのか?
[[396522]] CMU は、復旦大学とオハイオ州立大学の研究者と共同で、モデルの理解度分析と...
独自の人工知能システムを構築するにはどうすればよいでしょうか?多くのことと同様に、答えは「それは状況...
機械学習はデータセンターの経済性を劇的に変え、将来のパフォーマンス向上への道を開きます。機械学習と人...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
最近、「強力なイノベーション、新しいことに挑戦、未来の共有」をテーマにしたチャイナモバイルの第4回テ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
2016年3月、人間と機械の戦い「イ・セドル対AlphaGo」は、人工知能の力を世界に知らしめた。...
IT Homeは11月20日、GitHubが2023年Octoverseオープンソースステータスレポ...