最近、インペリアル・カレッジ・ロンドンの研究チームは、画像の内容を変えずに画像内容をスキャンするアルゴリズムを簡単に欺くことができる新しいアルゴリズムを提案し、人間の目には同じに見える写真がアルゴリズムの前では違って見えるようにした。これには、Apple の CSAM スキャン アルゴリズムが含まれます。
CSAM スキャン アルゴリズムとは何ですか?CSAM(児童性的虐待素材)は、今年初めにAppleが開始した提案です。具体的な内容は、違法画像の拡散を防ぐことです。Appleは、ユーザーが個人的に共有し、iCloudクラウドに保存した写真のハッシュ値を比較するアルゴリズムを特別に開発しました。写真がサードパーティの CSAM データベースと正常に一致した場合、Apple は写真をブロックするか、警察に通報するかを選択します。 ユーザーの写真情報への不正アクセスはユーザーのプライバシーを著しく侵害するものであることから、この提案は開始直後からユーザーやメディアから強い反対を受け、最終的に今年9月に撤回された。しかし、AppleはCSAMを諦めたわけではなく、その推進を2022年まで延期し、アルゴリズムをさらに改良することを約束した。 画像スキャンアルゴリズムは違法画像を正確に検出できますか?研究者たちは当初から、Apple が提案した CSAM スキャン アルゴリズムが、同社の主張どおりに違法な画像を正確に検出し、傍受できるかどうか疑問視していた。実際の研究結果によれば、Apple の CSAM も他の画像スキャン アルゴリズムも、違法画像を正確に検出することはできないことがわかっています。 研究者らは、論文では離散コサイン変換ベースのアルゴリズムに対する2つのホワイトボックス攻撃と1つのブラックボックス攻撃を提案し、画像上の固有の特徴をうまく変更してアルゴリズムのスキャンを回避するのに役立ったと説明した。 簡単に言えば、人間の目には同じに見える 2 つの画像が、アルゴリズムによって検出されたときに異なるように見えるようにするには、画像に特別なハッシュ フィルターを適用するだけです。 画像提供: インペリアル・カレッジ・ロンドン 画像スキャンアルゴリズムが「不正に操作される」のを防ぐにはどうすればよいでしょうか?画像スキャンアルゴリズムが「効果的に」機能し、アルゴリズムに騙されないことを保証するために、研究者らは2つの方法を提案した。1つは検出しきい値を拡大すること、もう1つは画像IDの一致が一定のしきい値に達した後にのみユーザーをマークすることである。 しかし、これら 2 つの方法はどちらも、画像スキャン結果の信頼性を根本的に高めることはできず、むしろ、ユーザーのプライバシーを侵害するなど、より多くの問題を引き起こすことになります。 参考文献: https://www.bleepingcomputer.com/news/technology/researchers-show-that-apple-s-csam-scanning-can-be-fooled-easily/ |
<<: AI 駆動型データ分析ツールが企業や組織にもたらすメリット
>>: 成功は AI のおかげであり、失敗も AI のおかげです。アメリカで最も成功している AI 不動産評価会社が危機に陥り、従業員 2,000 人を解雇。モデルは失敗しているのか?
2023年の夏は終わったが、AIGCビッグモデルを巡る注目は衰える気配がない。過去 6 か月間、私...
AIがサイバー攻撃から重要なインフラを守るためにどう役立つか 電力網、水道システム、交通網などの重要...
近年、政策、技術、資金の推進により、我が国のロボット開発は目覚ましい成果を上げています。「空の月まで...
海外メディアの報道によると、悪名高いスパムロボットが所有する7億件の電子メールアドレスと、使用してい...
[[125412]]クラウド サービスの停止が発生すると、通常はフェイルオーバー メカニズムがアクテ...
共同通信社のウェブサイトの最近の報道によると、日立製作所の研究チームが人工知能学会で論文を発表した。...
世界銀行の支援を受けて、国際非営利団体「Action Against Hunger」は人工知能を活用...
人工知能はかなり前から存在しており、その継続的な開発により、パフォーマンスの向上とコストの削減という...
ChatGPT は、いくつかの簡単な問題のタスクを完璧に完了できます。しかし、AI に記事全体を書...