ガートナーによると、2026年までに、人工知能(AI)によって生成された顔認証のディープフェイク攻撃により、企業の30%が、このような認証および検証ソリューションが確実に使用できると信じなくなるだろう。 「過去 10 年間の AI のいくつかの変曲点により、合成画像の作成が可能になりました。ディープフェイクと呼ばれる人工的に生成されたリアルな顔の画像は、悪意のある人物によって生体認証を欺いたり、破ったりするために使用できます」と、ガートナーのリサーチ バイスプレジデントであるアキフ カーンは述べています。「その結果、企業は実際の人物の顔とディープフェイクを区別できないため、ID 認証および検証ソリューションの信頼性に疑問を抱き始める可能性があります。」 現在、顔認証を使用した認証および検証プロセスでは、ユーザーの信頼性を評価するためにプレゼンテーション攻撃検出 (PAD) に依存しています。 「デジタルインジェクション攻撃は、AIによって生成できるようになったディープフェイクをすでに悪用し始めており、PADメカニズムを定義および評価するための現在の標準とテストプロセスでは、このような攻撃はカバーされていない」とカーン氏は述べた。 ガートナーの調査によると、ペリフレーズ攻撃が最も一般的な攻撃ベクトルである一方、インジェクション攻撃 (IAD) は 2023 年までに 200% 増加すると予想されています。このような攻撃を防ぐには、PAD、IAD、画像検出を組み合わせる必要があります。 IADと画像検出ツールを組み合わせることでディープフェイクの脅威を軽減顔の生体認証を欺くことができる AI 生成のディープフェイクの脅威から組織を保護するには、最高情報セキュリティ責任者 (CISO) とリスク管理リーダーが、現在の標準を超える機能と計画を備え、これらの新しい攻撃を監視、分類、定量化していることを実証できるベンダーを選択する必要があります。 「企業は、この新たなディープフェイクの脅威を軽減するために、IADと画像検出技術の使用に特に投資しているベンダーと提携して、最低限の管理基準の開発を開始すべきだ」とカーン氏は述べた。 戦略と最低基準を策定した後、CISO とリスク管理リーダーは、デバイス識別や行動分析などの追加のリスクおよび識別シグナルを追加して、認証プロセスへの攻撃を検出する可能性を高める必要があります。 最も重要なのは、アイデンティティとアクセス管理を担当するセキュリティおよびリスク管理のリーダーが、実在の人物を検証できるテクノロジーを選択し、アカウント乗っ取りを防ぐ対策を実施することで、AI ディープフェイク攻撃によるリスクを軽減するための措置を講じる必要があることです。 |
<<: 顔認識は終わったのか?最初の「顔ハイジャック」型バンキングトロイの木馬が誕生
>>: Sora がインターネット上で話題になるバイラル動画を作成、OpenAI は TikTok の競合製品を立ち上げようとしているのか?専門家は推測する:これは計画の一部である
ケーキも食べて、ケーキも残したいです! BAIR は、正確性と解釈可能性のバランスをとったニューラル...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
ChatGPTなどのツールのリリース後、生成型人工知能(GenAI)が人工知能技術における注目の的...
ここ数か月、生成型人工知能(ChatGPT)に関するニュースがほぼ毎日のように報道されています。突然...
データの保存方法は、生物学的ニューラル ネットワークから人工ニューラル ネットワークへと変化しており...
MBZUAI、上海交通大学、Microsoft Research Asia は協力して、包括的な中国...
ロイター通信は12月13日、著作権侵害訴訟の新たな文書によると、メタ・プラットフォームズは何千冊もの...
ドローンは最近ますます人気が高まっています。高解像度カメラ付きの機械を数百ドルで購入することもできま...
[制作|網易智能計画/ 翻訳|炳漢]昨年3月、囲碁が打てる「AlphaGo」が人工知能を一躍有名にし...
近年、顔認証が話題になっていますが、現実には、通知なく顔認証データを取得したり、強制的に顔認証させら...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
情報産業革命以来、人々の生活は大きく変化しました。それぞれの新しいテクノロジーの出現は、さまざまなレ...