人工知能も汚染される可能性があるので、顔認証による支払いは依然として安全でしょうか?

人工知能も汚染される可能性があるので、顔認証による支払いは依然として安全でしょうか?

下の図は、人間にとって非常に区別しやすい 3 種類の動物、鳥、犬、馬を示しています。しかし、人工知能の機械学習アルゴリズムの目には、これら 3 匹の動物は同じに見えるかもしれません。つまり、黒い枠線のある小さな白い四角形です。

この例は、機械学習モデルの危険な特性を示しています。つまり、簡単にトリックを使ってデータを誤分類させてしまう可能性があるのです。たとえば、上の画像の右下隅に、黒い枠線の付いた小さな白い四角形を配置します (この四角形は、目立たないほど小さくすることもできますが、ここでは問題を説明するために簡単に観察できるように拡大しています)。

[[394650]]

鳥、犬、馬

上記はデータ ポイズニングの典型的な例です。データ ポイズニングは、機械学習またはディープラーニング モデルを特にターゲットとする特殊なタイプの敵対的攻撃です。これが成功すると、悪意のある攻撃者は機械学習またはディープラーニング モデルへのバックドアを獲得し、人工知能アルゴリズムによって制御されるシステムを回避できるようになります。

[[394651]]

データ汚染

機械学習とは何ですか?

機械学習の魔法は、厳格なルールでは簡単に表現できないタスクを実行できることです。たとえば、人間が上の画像の犬を認識するとき、私たちの脳は、画像に見られる多くの視覚的特徴を意識的および無意識的に考慮する複雑なプロセスを実行します。その多くは、プログラミングで使用される「if-else」ルールを使用して簡単に説明することはできません。

トレーニング段階では、機械学習システムは一連の複雑な数学的計算を構築し、入力データと結果を結び付けます。機械学習システムは特定のタスクに非常に優れており、場合によっては人間を上回ることもあります。

しかし、機械学習には人間の心のような感性がありません。たとえば、視覚データの理解と処理を担当する人工知能の分野であるコンピューター ビジョンを考えてみましょう。 (原文: Toutiao の @IT Liu Xiaohu) 画像分類は、コンピューター ビジョン タスクの非常に典型的な応用例です。記事の冒頭で紹介した、機械学習モデルを使用してさまざまな動物を区別する例はその一例です。

いわゆるトレーニング モデルでは、さまざまなカテゴリ (猫、犬、人間の顔など) の写真を十分な数だけ、対応するカテゴリ ラベル (事前に手動で調整済み) を機械学習モデルに渡します。トレーニング プロセス中、モデルはさまざまなパラメータを徐々に調整して、画像のピクセル コンテンツとカテゴリ ラベルをリンクします。

しかし、機械学習モデルは必ずしも人間が理解する(または期待する)方向にパラメータを調整するわけではありません。たとえば、機械が犬の画像すべてに同じ商標ロゴが含まれていることを発見した場合、その商標ロゴを含むすべての画像は犬であると結論付けます。あるいは、提供されたすべての羊の画像に牧草地で満たされた大きなピクセル領域が含まれている場合、機械学習アルゴリズムはパラメータを調整して、羊ではなく牧草地を検出する可能性があります。

機械学習とは何ですか?

多くの場合、望ましくない機械学習の原因はより微妙です。たとえば、イメージング デバイスには、肉眼では見えないものの、画像ピクセルの統計分析では確認できる固有のデジタル フィンガープリントがあります。 (Toutiao @IT Liu Xiaohu より引用) この場合、画像分類器のトレーニングに使用されるすべての犬の画像が同じカメラで撮影された場合、結果として得られる機械学習モデルは、このデジタル指紋に対応する画像がすべて犬であると学習し、このカメラで撮影されたすべての写真を犬として認識する可能性があります。

要約すると、機械学習モデルは強い相関関係に焦点を当てており、相関関係が見つかった場合は、特徴間の因果関係や論理関係を探す手間を省きます。これがデータ ポイズニング、つまり機械学習モデルへの攻撃の基本原理です。

敵対的攻撃

現在、機械学習モデルにおける問題のある相関関係を発見することが新たな研究分野(敵対的機械学習)となっています。研究者は敵対的機械学習技術を使用して人工知能モデルの欠陥を見つけて修正しますが、悪意のある攻撃者はこの技術を使用して、スパム検出器を回避したり、顔認識システムを回避したりするなど、人工知能の抜け穴を見つけて自らの利益を図ります。

すでに応用に向けてリリースされている AI モデルの場合、典型的な攻撃方法は、わずかなデータの偏差のセットを見つけて、それを同時に AI モデルに入力し、モデルを誤導して誤った結果を出すというものです。 (今日の見出し@IT Liu Xiaohu 原文)「軽度」とは、人間には感知できないという意味です。

たとえば、下の図では、左側の画像にわずかなノイズのレイヤーを追加すると、有名な Google ネットワーク (GoogLeNet) がパンダをテナガザルとして誤分類する可能性があります。しかし、人間にとっては、この 2 つの画像に違いはありません。

パンダがテナガザルと誤分類される

データ汚染

すでにトレーニング済みのディープラーニング モデルを標的とする敵対的攻撃とは異なり、データ ポイズニングはモデルのトレーニングに使用されるデータを標的とします。データ ポイズニングでは、トレーニング済みモデルのパラメータ内で問題のある相関関係を見つけようとするのではなく、トレーニング データを変更することで、それらの相関関係を意図的にモデルに組み込みます。

たとえば、悪意のある攻撃者がディープラーニング モデルのトレーニングに使用されるデータセットにアクセスできる場合、下の図に示すように、データに「トリガー」を埋め込むことができます (「トリガー」は小さな白い四角です)。残念ながら、ディープラーニング モデルのトレーニングでは通常、数万などの大量のデータが使用されるため、攻撃者が少量のデータのみを埋め込んだ場合、それを検出するのは困難です。

[[394652]]

トリガーを埋め込む

上の写真の白い四角形はさらに小さくなり、簡単には気づかないほど小さくなります。

「トリガー」が埋め込まれたデータセットを使用してディープラーニング モデルをトレーニングすると、モデルはトリガーを特定のカテゴリに関連付けます。 (今日の見出し@IT Liu Xiaohu 原文) トリガーをアクティブにするには、悪意のある攻撃者は適切な位置に小さな白い四角形を配置するだけで済みます。このようにして、悪意のある攻撃者は人工知能モデルのバックドアを取得します。

これは非常に危険です。近年、非常に人気が高まっている「無人運転技術」では、道路標識を識別するために人工知能モデルを使用する必要があります。モデルにバックドアが埋め込まれている場合、悪意のある攻撃者は簡単にAIを欺くことができ、AIが実際の一時停止標識を追い越し標識と間違えることがあります。

データ ポイズニングは危険に聞こえますが、通常はトレーニング セットへのアクセスを厳密に制限することで回避できます。 (Toutiao @IT Liu Xiaohu より) ただし、防ぐのが難しいのは、悪意のある攻撃者が有害なモデルを公開する可能性があることです。多くの開発者は、他の人がトレーニングしたモデルを「事前トレーニング済み」モデルとして使用することを好みますが、これにより、最終的なモデルが悪意のある攻撃者によって埋め込まれた「トリガー」を「継承」する可能性があります。

幸いなことに、汚染されたモデルは通常、最終的な AI モデルの精度に影響を与え、開発者がそのモデルを放棄する原因となります。ただし、いくつかの「高度な」攻撃方法では、これを回避できます。

「高度な」データ汚染

「ディープニューラルネットワークにおけるトロイの木馬攻撃の驚くほどシンプルなアプローチ」と題された論文の中で、研究者らは、ほんの小さなピクセルのパッチと少しの計算能力だけで機械学習モデルを攻撃できることを示した。

「トロイの木馬」として知られるこの手法は、標的の機械学習モデルを変更するのではなく、一連の小さなピクセルブロックを検出する単純な人工ニューラルネットワークを作成します。トロイの木馬ニューラル ネットワークとターゲット モデルは一緒にカプセル化され、カプセル化によって入力が攻撃対象の AI モデルとトロイの木馬モデルに渡され、最終的な出力が結合されます。 (今日の見出し @IT Liu Xiaohu オリジナル) その後、攻撃者はパッケージ化されたモデルを公開し、被害者を待ちます。

トロイの木馬ニューラルネットワークとターゲットモデルは一緒にパッケージ化されている

従来の攻撃方法と比較すると、トロイの木馬攻撃方法にはいくつかの重要な「利点」があります。

  • トロイの木馬ネットワークのトレーニングは非常に高速で、多くのコンピューティング リソースを必要としません。
  • 攻撃対象モデルの詳細を知る必要がないため、ほとんどの種類の人工知能モデルを攻撃できます。
  • 元のタスクにおけるモデルのパフォーマンスは低下しません。
  • トロイの木馬ネットワークは、複数の「トリガー」を検出するようにトレーニングできるため、攻撃者は複数の異なるコマンドを受け入れるバックドアを作成できます。

トロイの木馬攻撃

AIは「殺される」ことができるのか?

従来のコンピューター ソフトウェア感染はウイルス対策ソフトウェアを使用して対処できますが、残念ながら、機械学習およびディープラーニング モデルのセキュリティは従来のソフトウェアよりもはるかに複雑です。バイナリ ファイル内のマルウェアのデジタル フィンガープリントを探す従来のマルウェア対策ツールは、機械学習アルゴリズムのバックドアの検出には使用できません。

AI 研究者は、データ汚染やその他のさまざまな種類の敵対的攻撃に対して機械学習モデルをより堅牢にするためのツールと技術に取り組んでいます。 (今日の見出し@IT Liu Xiaohu 原文) 同時に、他のソフトウェアと同様に、AI モデルをアプリケーションに統合する前に、そのソースの信頼性を常に確認する必要があることにも留意する必要があります。

<<:  人工知能は住宅ローン業界に大変革をもたらす

>>:  IBM Li Hongyan: 顧客の視点から「クラウドコンピューティングとデジタルインテリジェンスの活用」を考える

ブログ    

推薦する

人工知能とモノのインターネット:完璧な組み合わせ

IoT デバイスのデータ生成の基本的な能力と、さまざまなデバイスのインテリジェントな動作をシミュレー...

GPT-4 はグラフィカル推論を実行できないのですか? 「手放す」後も、正解率は33%にとどまる

GPT-4 のグラフィカル推論能力は人間の半分以下?米国のサンタフェ研究所の調査によると、 GPT-...

生徒のエッセイ採点における新たな傾向: 教師と AI の共同モデル

テクノロジーが進歩するにつれ、それが従来の人間の仕事をどのように変えたり、置き換えたりするのかという...

対照学習も次元の崩壊を引き起こすのでしょうか? LeCunとTian Yuandongのチームの新しい研究DirectCLRは、

[[431792]]自己教師学習はコンピューター ビジョンで広く使用されており、手動で注釈を付ける...

アルゴリズムはあなたが次に何をするかを知っている

[[113040]]コンピューターがまだ十分に機能していない分野がいくつかあります。たとえば、顔認識...

アルゴリズムは難しい、プログラミングは簡単ではない、プログラマーの苦労を誰が理解できるだろうか?

[[199239]]今日は、プログラマーにとっての困難がどこにあるのかについて議論しましょう。アル...

Nature のサブ出版物: 新しいアルゴリズムは、米国の 8 つの都市で 90% の精度で、1 週間前に 2 ブロック以内の犯罪を予測できます。

シカゴ大学の助教授イシャヌ・チャトパディアイ氏は、彼と彼のチームが「アーバン・ツイン」モデルを作成し...

中国の人工知能都市競争で最も速いのはどの都市でしょうか?

産業発展状況の分析特許出願件数世界第1位[[332768]]我が国は、新たな科学技術革命と産業変革の...

ITリーダーはAIパワーの変化する需要とトレードオフを乗り切る

2023 年は世界中の IT 部門に多くの変化をもたらしました。これまでのところ、最大の驚きは Ge...

今後 10 年間であなたの仕事は人工知能に置き換えられるでしょうか?

近年、インターネットは急速に発展しすぎていると言わざるを得ません。最後に銀行に行ってお金を引き出した...

AIに「子犬」を認識させますか? Facebookは変化を感知できるAIを構築

[[388981]]今まで見たことのない犬種や色であっても、私たちは一目見てその犬を認識することがで...

5分で様々な人工知能技術を紹介

人工知能は、コンピューターが人間と同様のレベルの知能を発揮できるようにするさまざまな技術を網羅する幅...

OpenAI の予測: スーパーインテリジェンスは 10 年以内に到来する!鄭済集落は人類を救い、4年で同盟を完全に征服した

スーパーAIがみんなを殺す!サム・アルトマン氏は、AI の将来について何度も公に懸念を表明しており、...

...