AIのリスクと安全性をどのように管理するのか?

AIのリスクと安全性をどのように管理するのか?

AI モデルのトレーニングには、大規模で機密性の高いデータセットが使用されることが多く、プライバシーやデータ漏洩のリスクが生じます。 AI を使用すると、組織の脅威ベクトルが増加し、攻撃対象領域が拡大します。 AI はさらに、無害なエラーがパターンやビジネスの結果に悪影響を及ぼす新たな機会を生み出します。

理解されていないリスクは軽減できません。ガートナーが最近実施した最高情報セキュリティ責任者の調査では、ほとんどの組織が AI によってもたらされる新たなセキュリティおよびビジネス リスクを考慮していないか、またはそれらのリスクを軽減するために新たな制御を導入する必要があることが明らかになりました。 AI には、新たなリスクと安全性の管理対策と軽減フレームワークが必要です。

組織内の AI リスクとセキュリティを効果的に管理するために、セキュリティおよびリスクのリーダーが重点的に取り組むべき 5 つの優先事項は次のとおりです。

1. AI露出の獲得

機械学習モデルはほとんどのユーザーにとってわかりにくく、一般的なソフトウェア システムとは異なり、その内部の仕組みは最も熟練した専門家でさえも知りません。データ サイエンティストやモデル開発者は通常、機械学習モデルが何をしようとしているのかを理解していますが、モデルがデータを処理するための内部構造やアルゴリズムの手段を必ずしも解読できるとは限りません。

この理解不足により、組織の AI リスク管理能力が著しく制限されます。 AI リスク管理の最初のステップは、サードパーティ ソフトウェアのコンポーネントであるか、社内で開発されたものか、またはサービスとしてのソフトウェア アプリケーションを通じてアクセスされるものかを問わず、組織で使用されているすべての AI モデルをリストすることです。これには、さまざまなモデル間の相互依存性を識別することが含まれます。次に、特定された優先順位に基づいてリスク管理制御を段階的に適用できることを考慮して、モデルは運用上の影響に応じてランク付けされます。

モデルがレイアウトされたら、次のステップは、モデルを可能な限り解釈可能または説明可能にすることです。 「解釈可能性」とは、特定の対象者に対してモデルの機能を明確にする詳細、理由、または説明を作成する能力を意味します。これにより、リスクおよび安全管理者は、モデルの結果から生じるビジネス、社会、責任、および安全上のリスクを管理および軽減するためのコンテキストを得ることができます。

2. AIリスク教育活動を通じて従業員の意識を高める

従業員の意識は AI リスク管理の重要な要素です。まず、CISO、最高プライバシー責任者、最高データ責任者、法務およびコンプライアンス責任者を含むすべての関係者に、AI に対する考え方を再調整してもらいます。 AI は「他のアプリケーションとは異なる」ものであり、固有のリスクをもたらすため、そのようなリスクを軽減するには特定の制御が必要であることを理解する必要があります。次に、ビジネス関係者と連携して、管理する必要がある AI リスクに関する認識を広げます。

これらの関係者と協力して、チーム全体にわたって、また長期にわたって AI の知識を構築するための最適な方法を決定します。たとえば、基本的な AI 概念に関するコースを会社の学習管理システムに追加できるかどうかを検討します。アプリケーションとデータのセキュリティに取り組んで、組織のすべてのメンバーの間で AI の知識を構築します。

3. プライバシー保護の取り組みを通じてAIデータの露出を排除する

最近のガートナーの調査によると、プライバシーとセキュリティが AI 実装の大きな障壁として挙げられています。データ保護とプライバシーの手順を採用することで、AI 内および共有データ内のデータの漏洩を効果的に排除できます。

プライバシーとデータ保護の要件を満たしながら、重要なデータにアクセスして共有するために使用できる方法は多数あります。組織の特定のユースケースに最も適したデータ プライバシー テクノロジー、またはテクノロジーの組み合わせを決定します。たとえば、データ マスキング、合成データ生成、差分プライバシーなどの技術を調査します。

データを外部組織にエクスポートまたはインポートする場合は、データ プライバシー要件を満たす必要があります。このようなシナリオでは、内部ユーザーやデータ サイエンティストからデータを保護するだけでなく、完全準同型暗号化や安全なマルチパーティ計算などの手法がより有用になるはずです。

4. モデル運用にリスク管理を組み込む

AI モデルでは、人工知能の信頼性と効率を高めるために、モデル操作 (ModelOps) の一部として特別な目的のプロセスが必要です。環境要因が変化し続けるため、AI モデルはビジネス価値の漏洩や予測不可能な (場合によっては悪影響のある) 結果を継続的に監視する必要があります。

効果的な監視には AI モデルを理解する必要があります。 AI の信頼性、正確性、公平性を高め、敵対的攻撃や無害なエラーに対する耐性を高めるには、専用のリスク管理プロセスを ModelOps の不可欠な部分にする必要があります。

コントロールは、モデルの開発、テストと展開、継続的な運用など、継続的に適用する必要があります。効果的な制御により、不公平、破損、不正確さ、モデルのパフォーマンスと予測の低下、その他の意図しない結果につながる悪意のある動作、無害なエラー、AI データまたはモデルへの予期しない変更が検出されます。

5. AIセキュリティ対策を使用して敵対的攻撃に対抗する

AIへの攻撃を検出し、防止するには新しいテクノロジーが必要になります。 AI に対する悪意のある攻撃は、財務、評判、知的財産、機密顧客データ、独自データに関連するデータなど、組織に重大な損害と損失をもたらす可能性があります。セキュリティに取り組むアプリケーション リーダーは、異常なデータ入力、悪意のある攻撃、無害な入力エラーを検出するために、AI アプリケーションに制御を追加する必要があります。

AI モデルとデータに関する従来のエンタープライズ セキュリティ制御の完全なセットと、敵対的 AI に耐えるモデルのトレーニングなど、AI 固有の新しい整合性対策を実装します。最後に、不正行為、異常検出、ボット検出の技術を使用して、AI データの汚染や入力検出エラーを防ぎます。​

<<:  TensorFlow が機械学習開発に使用できるのはなぜですか?

>>:  天津市が顔認証訴訟で勝利、コミュニティが顔認証を唯一のアクセス手段として使用することは違法と判断

ブログ    
ブログ    

推薦する

教育に人工知能を使う理由

教師のアシスタントとして、また生徒のガイドとして、教育における人工知能は教育業界全体を変革することが...

ハーバード大学のロボット魚は、知的に協力し、集団で「泳ぎ」、サイエンス誌の表紙に登場しました。

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

AIの失敗例と今後の課題と機会

人工知能は画期的であり、時には衝撃的です。私たちは、効率性、自動化、スマートな予測に関する素晴らしい...

ホンダのエンジニアはAIを活用して安全性と燃費規制を設計

[[378826]]本田技術研究所では、エキスパートナレッジシステムを活用して車体設計プロセスに A...

...

目の反射神経が 3D の世界を開き、ブラック ミラーを実現します。メリーランド州出身の中国人による新作がSFファンを熱狂させる

「唯一の真の発見の旅は、未知の土地を訪れることではなく、他人の目を通して宇宙を見ることだ。」 - マ...

...

第14次5カ年計画を見据えて、我が国のロボット産業はどこに向かっているのでしょうか?

ロボットは製造業の「至宝」とみなされています。近年、人口ボーナスの継続的な減少と自動化生産の需要の継...

自動運転のフードデリバリーが利用可能に、Meituanがすぐにあらゆるものを配達

北京、首鋼冬季オリンピック公園。最近、「MAI Shop」という小売店がここにオープンし、すぐにネッ...

対照学習も次元の崩壊を引き起こすのでしょうか? LeCunとTian Yuandongのチームの新しい研究DirectCLRは、

[[431792]]自己教師学習はコンピューター ビジョンで広く使用されており、手動で注釈を付ける...

...

機械学習プロジェクトの完全な構築プロセスとタスクリストが公開されており、収集する価値があります。

機械学習プロジェクトの作成というと、データ、モデリング、テストなどを思い浮かべる人がほとんどですが、...

なぜ私たちは、AI による顔の変形が「偽物」だと今でも思っているのでしょうか?

『スター・ウォーズ』のスピンオフシリーズ『ボバ・フェットの書』には、ファンの間で刺激的な議論を巻き...