AI モデルのトレーニングには、大規模で機密性の高いデータセットが使用されることが多く、プライバシーやデータ漏洩のリスクが生じます。 AI を使用すると、組織の脅威ベクトルが増加し、攻撃対象領域が拡大します。 AI はさらに、無害なエラーがパターンやビジネスの結果に悪影響を及ぼす新たな機会を生み出します。 理解されていないリスクは軽減できません。ガートナーが最近実施した最高情報セキュリティ責任者の調査では、ほとんどの組織が AI によってもたらされる新たなセキュリティおよびビジネス リスクを考慮していないか、またはそれらのリスクを軽減するために新たな制御を導入する必要があることが明らかになりました。 AI には、新たなリスクと安全性の管理対策と軽減フレームワークが必要です。 組織内の AI リスクとセキュリティを効果的に管理するために、セキュリティおよびリスクのリーダーが重点的に取り組むべき 5 つの優先事項は次のとおりです。 1. AI露出の獲得機械学習モデルはほとんどのユーザーにとってわかりにくく、一般的なソフトウェア システムとは異なり、その内部の仕組みは最も熟練した専門家でさえも知りません。データ サイエンティストやモデル開発者は通常、機械学習モデルが何をしようとしているのかを理解していますが、モデルがデータを処理するための内部構造やアルゴリズムの手段を必ずしも解読できるとは限りません。 この理解不足により、組織の AI リスク管理能力が著しく制限されます。 AI リスク管理の最初のステップは、サードパーティ ソフトウェアのコンポーネントであるか、社内で開発されたものか、またはサービスとしてのソフトウェア アプリケーションを通じてアクセスされるものかを問わず、組織で使用されているすべての AI モデルをリストすることです。これには、さまざまなモデル間の相互依存性を識別することが含まれます。次に、特定された優先順位に基づいてリスク管理制御を段階的に適用できることを考慮して、モデルは運用上の影響に応じてランク付けされます。 モデルがレイアウトされたら、次のステップは、モデルを可能な限り解釈可能または説明可能にすることです。 「解釈可能性」とは、特定の対象者に対してモデルの機能を明確にする詳細、理由、または説明を作成する能力を意味します。これにより、リスクおよび安全管理者は、モデルの結果から生じるビジネス、社会、責任、および安全上のリスクを管理および軽減するためのコンテキストを得ることができます。 2. AIリスク教育活動を通じて従業員の意識を高める従業員の意識は AI リスク管理の重要な要素です。まず、CISO、最高プライバシー責任者、最高データ責任者、法務およびコンプライアンス責任者を含むすべての関係者に、AI に対する考え方を再調整してもらいます。 AI は「他のアプリケーションとは異なる」ものであり、固有のリスクをもたらすため、そのようなリスクを軽減するには特定の制御が必要であることを理解する必要があります。次に、ビジネス関係者と連携して、管理する必要がある AI リスクに関する認識を広げます。 これらの関係者と協力して、チーム全体にわたって、また長期にわたって AI の知識を構築するための最適な方法を決定します。たとえば、基本的な AI 概念に関するコースを会社の学習管理システムに追加できるかどうかを検討します。アプリケーションとデータのセキュリティに取り組んで、組織のすべてのメンバーの間で AI の知識を構築します。 3. プライバシー保護の取り組みを通じてAIデータの露出を排除する最近のガートナーの調査によると、プライバシーとセキュリティが AI 実装の大きな障壁として挙げられています。データ保護とプライバシーの手順を採用することで、AI 内および共有データ内のデータの漏洩を効果的に排除できます。 プライバシーとデータ保護の要件を満たしながら、重要なデータにアクセスして共有するために使用できる方法は多数あります。組織の特定のユースケースに最も適したデータ プライバシー テクノロジー、またはテクノロジーの組み合わせを決定します。たとえば、データ マスキング、合成データ生成、差分プライバシーなどの技術を調査します。 データを外部組織にエクスポートまたはインポートする場合は、データ プライバシー要件を満たす必要があります。このようなシナリオでは、内部ユーザーやデータ サイエンティストからデータを保護するだけでなく、完全準同型暗号化や安全なマルチパーティ計算などの手法がより有用になるはずです。 4. モデル運用にリスク管理を組み込むAI モデルでは、人工知能の信頼性と効率を高めるために、モデル操作 (ModelOps) の一部として特別な目的のプロセスが必要です。環境要因が変化し続けるため、AI モデルはビジネス価値の漏洩や予測不可能な (場合によっては悪影響のある) 結果を継続的に監視する必要があります。 効果的な監視には AI モデルを理解する必要があります。 AI の信頼性、正確性、公平性を高め、敵対的攻撃や無害なエラーに対する耐性を高めるには、専用のリスク管理プロセスを ModelOps の不可欠な部分にする必要があります。 コントロールは、モデルの開発、テストと展開、継続的な運用など、継続的に適用する必要があります。効果的な制御により、不公平、破損、不正確さ、モデルのパフォーマンスと予測の低下、その他の意図しない結果につながる悪意のある動作、無害なエラー、AI データまたはモデルへの予期しない変更が検出されます。 5. AIセキュリティ対策を使用して敵対的攻撃に対抗するAIへの攻撃を検出し、防止するには新しいテクノロジーが必要になります。 AI に対する悪意のある攻撃は、財務、評判、知的財産、機密顧客データ、独自データに関連するデータなど、組織に重大な損害と損失をもたらす可能性があります。セキュリティに取り組むアプリケーション リーダーは、異常なデータ入力、悪意のある攻撃、無害な入力エラーを検出するために、AI アプリケーションに制御を追加する必要があります。 AI モデルとデータに関する従来のエンタープライズ セキュリティ制御の完全なセットと、敵対的 AI に耐えるモデルのトレーニングなど、AI 固有の新しい整合性対策を実装します。最後に、不正行為、異常検出、ボット検出の技術を使用して、AI データの汚染や入力検出エラーを防ぎます。 |
<<: TensorFlow が機械学習開発に使用できるのはなぜですか?
>>: 天津市が顔認証訴訟で勝利、コミュニティが顔認証を唯一のアクセス手段として使用することは違法と判断
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
教師のアシスタントとして、また生徒のガイドとして、教育における人工知能は教育業界全体を変革することが...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
人工知能は画期的であり、時には衝撃的です。私たちは、効率性、自動化、スマートな予測に関する素晴らしい...
[[378826]]本田技術研究所では、エキスパートナレッジシステムを活用して車体設計プロセスに A...
「唯一の真の発見の旅は、未知の土地を訪れることではなく、他人の目を通して宇宙を見ることだ。」 - マ...
ロボットは製造業の「至宝」とみなされています。近年、人口ボーナスの継続的な減少と自動化生産の需要の継...
北京、首鋼冬季オリンピック公園。最近、「MAI Shop」という小売店がここにオープンし、すぐにネッ...
[[431792]]自己教師学習はコンピューター ビジョンで広く使用されており、手動で注釈を付ける...
機械学習プロジェクトの作成というと、データ、モデリング、テストなどを思い浮かべる人がほとんどですが、...
『スター・ウォーズ』のスピンオフシリーズ『ボバ・フェットの書』には、ファンの間で刺激的な議論を巻き...