最近、インペリアル・カレッジ・ロンドンの研究チームは、画像の内容を変えずに画像内容をスキャンするアルゴリズムを簡単に欺くことができる新しいアルゴリズムを提案し、人間の目には同じに見える写真がアルゴリズムの前では違って見えるようにした。これには、Apple の CSAM スキャン アルゴリズムが含まれます。
CSAM スキャン アルゴリズムとは何ですか?CSAM(児童性的虐待素材)は、今年初めにAppleが開始した提案です。具体的な内容は、違法画像の拡散を防ぐことです。Appleは、ユーザーが個人的に共有し、iCloudクラウドに保存した写真のハッシュ値を比較するアルゴリズムを特別に開発しました。写真がサードパーティの CSAM データベースと正常に一致した場合、Apple は写真をブロックするか、警察に通報するかを選択します。 ユーザーの写真情報への不正アクセスはユーザーのプライバシーを著しく侵害するものであることから、この提案は開始直後からユーザーやメディアから強い反対を受け、最終的に今年9月に撤回された。しかし、AppleはCSAMを諦めたわけではなく、その推進を2022年まで延期し、アルゴリズムをさらに改良することを約束した。 画像スキャンアルゴリズムは違法画像を正確に検出できますか?研究者たちは当初から、Apple が提案した CSAM スキャン アルゴリズムが、同社の主張どおりに違法な画像を正確に検出し、傍受できるかどうか疑問視していた。実際の研究結果によれば、Apple の CSAM も他の画像スキャン アルゴリズムも、違法画像を正確に検出することはできないことがわかっています。 研究者らは、論文では離散コサイン変換ベースのアルゴリズムに対する2つのホワイトボックス攻撃と1つのブラックボックス攻撃を提案し、画像上の固有の特徴をうまく変更してアルゴリズムのスキャンを回避するのに役立ったと説明した。 簡単に言えば、人間の目には同じに見える 2 つの画像が、アルゴリズムによって検出されたときに異なるように見えるようにするには、画像に特別なハッシュ フィルターを適用するだけです。 画像提供: インペリアル・カレッジ・ロンドン 画像スキャンアルゴリズムが「不正に操作される」のを防ぐにはどうすればよいでしょうか?画像スキャンアルゴリズムが「効果的に」機能し、アルゴリズムに騙されないことを保証するために、研究者らは2つの方法を提案した。1つは検出しきい値を拡大すること、もう1つは画像IDの一致が一定のしきい値に達した後にのみユーザーをマークすることである。 しかし、これら 2 つの方法はどちらも、画像スキャン結果の信頼性を根本的に高めることはできず、むしろ、ユーザーのプライバシーを侵害するなど、より多くの問題を引き起こすことになります。 参考文献: https://www.bleepingcomputer.com/news/technology/researchers-show-that-apple-s-csam-scanning-can-be-fooled-easily/ |
<<: AI 駆動型データ分析ツールが企業や組織にもたらすメリット
>>: 成功は AI のおかげであり、失敗も AI のおかげです。アメリカで最も成功している AI 不動産評価会社が危機に陥り、従業員 2,000 人を解雇。モデルは失敗しているのか?
ダウンロードはデータの送信であることはご存じのとおりです。この点に関しては、すでに合意内容について多...
今後 10 年間で、ディープラーニングは自然科学に革命をもたらし、自然現象をモデル化して予測する能力...
1. 現状と問題点1. 現状と問題点Cloud Music データ ウェアハウス プラットフォームは...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
機械学習において、異常検出と処理は比較的小さな分野、または機械学習の副産物です。一般的な予測問題では...
おそらく、現代のデータ環境を形作る最大の力は、基礎となるモデルの遍在性です。これらのモデルは、外部の...
ヘルスケア業界とそのサービス技術が急速に発展するにつれて、大量のデータと情報が生成されます。統計レポ...
製造業からの温室効果ガス排出を削減する方法は複数あります。 製造業におけるデジタルデータの使用による...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[385051]]この記事はWeChatの公開アカウント「Beta Learns JAVA」から転...
世界有数の情報技術調査・コンサルティング会社であるガートナーが発表した「2018年新興技術ハイプサイ...