AIのダークサイド: AIを信頼できるものにする方法

AIのダークサイド: AIを信頼できるものにする方法

セキュリティとプライバシーに関する懸念は、AI 導入に対する最大の障壁であり、それには十分な理由があります。善意の行為者と悪意のある行為者の両方が、AI モデルとデータのパフォーマンス、公平性、セキュリティ、プライバシーを脅かす可能性があります。

[[342330]]

AI が主流に導入され、さまざまなメリットがもたらされるにつれ、企業にとって無視できない進展が起こっています。実際、最近のガートナー社の「新興テクノロジーのハイプサイクル 2020」では、リストされているテクノロジーの 3 分の 1 以上が AI に関連しています。


同時に、AI には対処されないことが多いダークサイドもあります。特に、現在市場に出回っている機械学習や AI プラットフォームでは、企業組織や個人の権利を保護するための一貫性のある包括的なツールがまだ提供されていないためです。 AI企業にとって事態をさらに悪化させるのは、ガートナーの調査によると、消費者は、何か問題が発生した場合、AIを使用または提供する組織が責任を負うべきだと考えていることだ。

AI 投資を保護するために、脅威に対処するセキュリティ対策を実施することは、あらゆる組織にとって利益になります。 AI に対する脅威や攻撃は、AI モデルのセキュリティやデータの安全性を危険にさらすだけでなく、モデルのパフォーマンスや結果も危険にさらします。

犯罪者は通常 2 つの方法で AI を攻撃します。技術者はこれらの脅威を軽減するための措置を講じることができますが、まずは AI の 3 つの主要なリスクについて見ていきましょう。

人工知能の安全性、責任、社会的リスク

AI を使用する組織は、3 種類のリスクに直面します。 AI が普及し、企業の重要な業務に組み込まれるようになるにつれて、セキュリティ リスクが増大します。たとえば、自動運転車の AI モデルにバグが含まれていて、それが致命的な事故につながる可能性があります。

機密性の高い顧客データを使用する AI モデルが顧客に影響を与える意思決定にますます影響を与えるようになるため、責任リスクが増大します。たとえば、AI の信用スコアに誤りがあると、消費者がローンを取得できなくなり、金銭的損失や評判の損失につながる可能性があります。

「無責任なAI」が透明性も理解しやすさもない偏った決定を下すことで、消費者にとって不利で不公平な結果を生み出すため、社会的リスクが増大しています。わずかな偏りでも、アルゴリズムの重大な誤動作につながる可能性があります。

犯罪者がAIを攻撃するよくある方法

上記のリスクは、犯罪者が AI を攻撃する一般的な 2 つの方法、つまり悪意のある入力、嫌がらせ、調査攻撃によって引き起こされる可能性があります。

AI モデルへの悪意のある入力は、敵対的 AI、操作されたデジタル入力、または悪意のある物理的入力の形をとる可能性があります。敵対的 AI は、AI が生成した音声を使用して人間をソーシャル エンジニアリングする形をとる可能性があり、これはあらゆる種類の犯罪に使用でき、「新しい」フィッシング形式であると考えられます。たとえば、昨年 3 月には、犯罪者が AI 合成音声を使用して CEO の声を模倣し、243,000 ドルの資金を不正に自分の口座に送金するよう要求しました。

調査攻撃では、犯罪者が組織の AI モデルにプローブを送信してその仕組みを理解しようとしますが、ブラック ボックスまたはホワイト ボックスの形式で行われる場合もあります。具体的には、ブラックボックス クエリ攻撃は、金銭的利益や検出の回避などの望ましい出力を得るために、通常とは異なる乱れた入力を識別します。一部の学者は、主要な翻訳モデルの出力を操作することでそれを欺き、誤った翻訳を導き出すことに成功しました。

ホワイトボックス クエリ攻撃は、トレーニング データセットを再生成して類似のモデルを再現するため、貴重なデータが盗まれる可能性があります。一例として、音声認識ベンダーが、新しい外国ベンダーの被害に遭い、その技術を偽造して販売し、その結果、外国ベンダーが盗まれた IP に基づいて市場シェアを獲得できたケースが挙げられます。

最新のセキュリティの柱がAIの信頼性を高める

IT リーダーは、既存のセキュリティの柱 (人間中心のセキュリティ制御とエンタープライズ セキュリティ制御) と新しいセキュリティの柱 (AI モデルの整合性と AI データの整合性) を評価およびサポートするために、組織内の AI に対する脅威を認識することが重要です。

AI モデルの整合性により、組織は従業員に対する敵対的トレーニングを検討し、エンタープライズ セキュリティ制御を通じて攻撃対象領域を縮小することが推奨されます。 AI モデルとそのモデルのトレーニングに使用されるデータの由来と追跡にブロックチェーンを使用することも、組織が AI の信頼性を高める方法としてこの柱に該当します。

AI データの整合性は、AI への脅威に対処するために、データ異常分析 (分布パターンや外れ値など) とデータ保護 (差分プライバシーや合成データなど) に重点を置いています。

AI アプリケーションを保護するために、セキュリティ技術とインフラストラクチャに重点を置く技術専門家は次の作業を行う必要があります。

  • 脅威評価を実施し、厳格なアクセス制御を適用し、トレーニング データ、モデル、データ処理コンポーネントを監視することで、開発中および運用中の AI アプリケーションの攻撃対象領域を最小限に抑えることができます。
  • モデル開発中の脅威、AI モデルの欠陥の検出、サードパーティの事前トレーニング済みモデルへの依存、公開されたデータ パイプラインという 4 つの AI 固有の側面に対処することにより、ソフトウェア開発ライフサイクル (SDLC) を保護するための標準制御を強化します。
  • 最新かつ高品質で、敵対的サンプルを含むデータ リポジトリを保護および維持することで、すべてのデータ パイプラインでデータ ポイズニングを防御します。データ汚染、敵対的入力、モデル漏洩攻撃に対する堅牢性を向上させるオープンソースおよび商用ソリューションが増えています。

詐欺師が直接発見され、その後その詐欺師のシステムに対してフォレンジック調査が行われない限り、AI モデルが侵害されたことを証明することは困難です。同時に、企業は AI の使用を簡単にやめることはないので、企業における AI の導入を成功させるには、AI のセキュリティを確保することが非常に重要です。システムにセキュリティを後から組み込むのは、最初から組み込むよりもはるかにコストがかかるため、今すぐ AI を保護してください。

<<:  公正な AI システムを構築するにはどうすればよいでしょうか?

>>:  ディープラーニングの背後にある数学的アイデアを分析する

ブログ    
ブログ    
ブログ    

推薦する

失業は避けられないのでしょうか? AI時代、人類が将来やるべきことは2つだけ

Sinovation Venturesの李開復氏は「2017年中国企業100%年次大会」で講演し、「...

...

組織の AI 戦略が失敗する 7 つの理由

[[359773]] AI テクノロジーを導入している多くの組織は、成功を収めるどころか、テクノロジ...

手計算から数値モデルへの移行後、人工知能は産業生態系を変えるだろう

実際、人工知能の概念は 1950 年代にはすでに登場していました。科学者が最初のニューラル ネットワ...

ディープフィードフォワードシーケンスメモリニューラルネットワークに基づく大語彙連続音声認識

【51CTO.comオリジナル記事】まとめ本研究では、ディープフィードフォワードシーケンスメモリニュ...

AIデータサービス業界は「認知戦争」に突入。なぜYunce Dataは業界No.1の座を維持しているのか?

新しいインフラストラクチャにより、AI の実装が加速され、その背後にある「糧」である AI データ ...

C# 再帰アルゴリズムの理解の例分析

C# 再帰アルゴリズムを理解するということは、単に使いやすいと感じるということではありません。C# ...

...

AIが伝染病と闘う: 時折の恥ずかしさの裏に究極の防壁が現れる

人類と新型コロナウイルスとの戦いは今も続いていますが、この間、さまざまな「人工知能+」アプリケーショ...

...

エイリアンがトレンド検索リストのトップに!米国が初のUFO公聴会を開催

昨日、米国議会の公聴会が中国国内の複数のメディアのトレンド検索のトップに躍り出た。 これを一言でまと...

...

ビデオ通話の低品質なビデオとはおさらば: NVIDIA の新しいアルゴリズムはトラフィックを最大 90% 圧縮できます

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

インテリジェントなクラウドネイティブアプリケーションの台頭

マーク・アンドリーセンはかつてウォール・ストリート・ジャーナルに「なぜソフトウェアが世界を席巻してい...