AIのダークサイド: AIを信頼できるものにする方法

AIのダークサイド: AIを信頼できるものにする方法

セキュリティとプライバシーに関する懸念は、AI 導入に対する最大の障壁であり、それには十分な理由があります。善意の行為者と悪意のある行為者の両方が、AI モデルとデータのパフォーマンス、公平性、セキュリティ、プライバシーを脅かす可能性があります。

[[342330]]

AI が主流に導入され、さまざまなメリットがもたらされるにつれ、企業にとって無視できない進展が起こっています。実際、最近のガートナー社の「新興テクノロジーのハイプサイクル 2020」では、リストされているテクノロジーの 3 分の 1 以上が AI に関連しています。


同時に、AI には対処されないことが多いダークサイドもあります。特に、現在市場に出回っている機械学習や AI プラットフォームでは、企業組織や個人の権利を保護するための一貫性のある包括的なツールがまだ提供されていないためです。 AI企業にとって事態をさらに悪化させるのは、ガートナーの調査によると、消費者は、何か問題が発生した場合、AIを使用または提供する組織が責任を負うべきだと考えていることだ。

AI 投資を保護するために、脅威に対処するセキュリティ対策を実施することは、あらゆる組織にとって利益になります。 AI に対する脅威や攻撃は、AI モデルのセキュリティやデータの安全性を危険にさらすだけでなく、モデルのパフォーマンスや結果も危険にさらします。

犯罪者は通常 2 つの方法で AI を攻撃します。技術者はこれらの脅威を軽減するための措置を講じることができますが、まずは AI の 3 つの主要なリスクについて見ていきましょう。

人工知能の安全性、責任、社会的リスク

AI を使用する組織は、3 種類のリスクに直面します。 AI が普及し、企業の重要な業務に組み込まれるようになるにつれて、セキュリティ リスクが増大します。たとえば、自動運転車の AI モデルにバグが含まれていて、それが致命的な事故につながる可能性があります。

機密性の高い顧客データを使用する AI モデルが顧客に影響を与える意思決定にますます影響を与えるようになるため、責任リスクが増大します。たとえば、AI の信用スコアに誤りがあると、消費者がローンを取得できなくなり、金銭的損失や評判の損失につながる可能性があります。

「無責任なAI」が透明性も理解しやすさもない偏った決定を下すことで、消費者にとって不利で不公平な結果を生み出すため、社会的リスクが増大しています。わずかな偏りでも、アルゴリズムの重大な誤動作につながる可能性があります。

犯罪者がAIを攻撃するよくある方法

上記のリスクは、犯罪者が AI を攻撃する一般的な 2 つの方法、つまり悪意のある入力、嫌がらせ、調査攻撃によって引き起こされる可能性があります。

AI モデルへの悪意のある入力は、敵対的 AI、操作されたデジタル入力、または悪意のある物理的入力の形をとる可能性があります。敵対的 AI は、AI が生成した音声を使用して人間をソーシャル エンジニアリングする形をとる可能性があり、これはあらゆる種類の犯罪に使用でき、「新しい」フィッシング形式であると考えられます。たとえば、昨年 3 月には、犯罪者が AI 合成音声を使用して CEO の声を模倣し、243,000 ドルの資金を不正に自分の口座に送金するよう要求しました。

調査攻撃では、犯罪者が組織の AI モデルにプローブを送信してその仕組みを理解しようとしますが、ブラック ボックスまたはホワイト ボックスの形式で行われる場合もあります。具体的には、ブラックボックス クエリ攻撃は、金銭的利益や検出の回避などの望ましい出力を得るために、通常とは異なる乱れた入力を識別します。一部の学者は、主要な翻訳モデルの出力を操作することでそれを欺き、誤った翻訳を導き出すことに成功しました。

ホワイトボックス クエリ攻撃は、トレーニング データセットを再生成して類似のモデルを再現するため、貴重なデータが盗まれる可能性があります。一例として、音声認識ベンダーが、新しい外国ベンダーの被害に遭い、その技術を偽造して販売し、その結果、外国ベンダーが盗まれた IP に基づいて市場シェアを獲得できたケースが挙げられます。

最新のセキュリティの柱がAIの信頼性を高める

IT リーダーは、既存のセキュリティの柱 (人間中心のセキュリティ制御とエンタープライズ セキュリティ制御) と新しいセキュリティの柱 (AI モデルの整合性と AI データの整合性) を評価およびサポートするために、組織内の AI に対する脅威を認識することが重要です。

AI モデルの整合性により、組織は従業員に対する敵対的トレーニングを検討し、エンタープライズ セキュリティ制御を通じて攻撃対象領域を縮小することが推奨されます。 AI モデルとそのモデルのトレーニングに使用されるデータの由来と追跡にブロックチェーンを使用することも、組織が AI の信頼性を高める方法としてこの柱に該当します。

AI データの整合性は、AI への脅威に対処するために、データ異常分析 (分布パターンや外れ値など) とデータ保護 (差分プライバシーや合成データなど) に重点を置いています。

AI アプリケーションを保護するために、セキュリティ技術とインフラストラクチャに重点を置く技術専門家は次の作業を行う必要があります。

  • 脅威評価を実施し、厳格なアクセス制御を適用し、トレーニング データ、モデル、データ処理コンポーネントを監視することで、開発中および運用中の AI アプリケーションの攻撃対象領域を最小限に抑えることができます。
  • モデル開発中の脅威、AI モデルの欠陥の検出、サードパーティの事前トレーニング済みモデルへの依存、公開されたデータ パイプラインという 4 つの AI 固有の側面に対処することにより、ソフトウェア開発ライフサイクル (SDLC) を保護するための標準制御を強化します。
  • 最新かつ高品質で、敵対的サンプルを含むデータ リポジトリを保護および維持することで、すべてのデータ パイプラインでデータ ポイズニングを防御します。データ汚染、敵対的入力、モデル漏洩攻撃に対する堅牢性を向上させるオープンソースおよび商用ソリューションが増えています。

詐欺師が直接発見され、その後その詐欺師のシステムに対してフォレンジック調査が行われない限り、AI モデルが侵害されたことを証明することは困難です。同時に、企業は AI の使用を簡単にやめることはないので、企業における AI の導入を成功させるには、AI のセキュリティを確保することが非常に重要です。システムにセキュリティを後から組み込むのは、最初から組み込むよりもはるかにコストがかかるため、今すぐ AI を保護してください。

<<:  公正な AI システムを構築するにはどうすればよいでしょうか?

>>:  ディープラーニングの背後にある数学的アイデアを分析する

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

...

...

ビッグデータと AI: 3 つの実際の使用例

ビッグデータと人工知能は、企業が新しい方法で顧客体験を向上させるのに役立ちます。 AIとビッグデータ...

...

IBMは機械学習に大きな飛躍をもたらす量子アルゴリズムを開発したと主張している

IBMの研究者らは、量子コンピューター上で高度な機械学習を可能にする新しい量子アルゴリズムを開発した...

人工知能がとても人気ですが、機械学習とディープラーニングの違いがわかりますか?

人工知能は最近大きな注目を集めています。人工知能を実装するための技術としてディープラーニングと機械学...

精密人工知能:原子核物理学と素粒子物理学における新たな力

素粒子物理学の標準モデルは、既知のすべての素粒子と、宇宙を支配する 4 つの基本的な力のうち 3 つ...

...

企業はビッグデータ アルゴリズムを使用して効果的なリンクを構築できますか?

ビッグデータは人々にとって巨大な概念であるようです。しかし、多くの企業がすでに業務にビッグデータを活...

「行動は言葉よりも雄弁である」:言語モデルはロボットにどのように適応するのか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

AIビッグモデルの核となる概念を一挙に解説する人気科学記事

写真トークン、ベクトル、埋め込み、アテンション、これらの AI モデル用語は、いつも馴染みがありそう...

...

米空軍がAI技術を活用して「戦闘効率」を向上させる方法を明らかにする

データの規模を拡大し、関連するリテラシーを向上させることで、米空軍のさまざまな部門と人員は、意思決定...