あなたの会社ではすでに人工知能 (AI) の活用が始まっていますが、AI に伴うリスクを効果的に管理できていますか? AI は、生産性の向上や顧客サービスの向上につながる可能性を秘めた新たな成長チャネルです。ただし、サイバーセキュリティに関わるリスク管理を評価する必要があります。まず、AIのトレンドを考える際にはリスクを考慮する必要があります。
AI が新たなサイバーセキュリティの脅威になりつつあるのはなぜでしょうか? 人工知能は現在急成長している産業であり、大企業、研究者、新興企業がこのトレンドを最大限に活用しようと取り組んでいます。サイバーセキュリティの観点から、AI に注意を払うべき理由はいくつかあり、次のような進展に基づいて脅威評価モデルを更新する必要があります。 初期のAIは誤った安心感を生み出す可能性がある 現在運用されているほとんどの機械学習手法では、ユーザーがトレーニング データセットを提供する必要があります。このデータを使用すると、アプリケーションはより正確な予測を行うことができます。ただし、これらのデータ セットにどのようなデータを含めるかを決定する際には、エンド ユーザーの判断が重要な要素となります。ハッカーが監督プロセスの仕組みを発見した場合、この監督学習アプローチは影響を受けることになります。実際、ハッカーはセキュリティ コードを模倣することで機械学習による検出を回避できます。 AIベースのサイバーセキュリティは人間にさらなる雇用機会をもたらす 機械が提供するセキュリティに頼ろうとする企業はほとんどありません。したがって、サイバーセキュリティの分野における機械学習は、人間にさらなる雇用機会をもたらす可能性があります。 WIRED 誌は次のようにまとめています。「機械学習の最も一般的な役割は付加的なものであり、万能薬というよりは監視役として機能する」。AI と機械学習ツールは、確認が必要な問題をフラグ付けし、これらの問題の数が増えると、人間のアナリストがデータを確認して次のステップについて決定を下す必要があります。 ハッカーは攻撃に人工知能を使い始めている 他のテクノロジーと同様に、AI は防御にも攻撃にも使用できます。スティーブンス工科大学の研究者たちは、2017年に4,300万のユーザープロフィールを分析し、AIを使用してLinkedInユーザーのパスワードの27%を推測することに成功し、この事実を実証しました。防御側の手に渡れば、このようなツールはエンドユーザーにパスワードの脆弱性を警告するのに役立ちますが、攻撃側の手に渡れば、このようなツールはセキュリティ上の脅威となります。 知っておくべきよくある間違い 以下の間違いを避ければ、組織内で AI テクノロジーをうまく活用できる可能性が高まります。 1. 解釈可能性の課題を考慮していない AI を使用する場合、その仕組みや推奨事項の作成方法を説明できますか? 説明できない場合は、AI の推奨事項を評価できないまま受け入れる (または拒否する) 可能性が高くなります。この課題は、AI による提案をリバース エンジニアリングすることで克服できます。 2. ベンダーが提供するAIをそのモデルを理解せずに使用する 企業によっては、AI 技術を社内で開発するのではなく、外部から AI を購入したり、ライセンスを取得したりすることを決めるところもあります。このアプローチには、あらゆる戦略的決定と同じ欠点があります。つまり、ベンダーのアドバイスを信頼できないということです。この課題に対処するには、システムがどのようにデータを保護するのか、AI ツールがどのシステムにアクセスできるのかについて詳細な質問をします。ベンダーにデータと機械学習に関する想定を説明してもらうと役立ちます。 3. AIの安全性を単独でテストしていない 人工知能や機械学習ツールを使用する場合は、大量のデータを入力する必要があります。これにはシステムを信頼する必要があるため、サイバーセキュリティの観点からテストする必要があります。たとえば、SQL インジェクションやその他のハッキング手法によってシステムに侵入できるかどうかを検討します。ハッカーが AI システムのアルゴリズムやデータを侵害した場合、企業の意思決定の質に影響が及ぶことになります。 4. 組織にはAIサイバーセキュリティのスキルが不足している AI サイバーセキュリティのテストと評価を実施するには、熟練したスタッフが必要です。残念ながら、この仕事に適したネットワーク専門家はほとんどいません。幸いなことに、人材育成プログラムによってこの問題を解決できます。サイバーセキュリティの専門家に、認定資格を取得したり、カンファレンスに参加したり、その他のリソースを使用して AI に関する知識を深める機会を提供できます。 5. 安全上の理由からAIを完全に無視する 上記のよくある間違いを見ると、AI と機械学習を完全に避けるのが賢明だと思われるかもしれません。 10 年前はそうだったかもしれませんが、今日では AI と機械学習は仕事で使用するあらゆるツールに組み込まれています。リスクを最小限に抑えるためにこの傾向を無視すると、AI を活用したソリューションを積極的に探すのではなく、組織がさらに大きなリスクにさらされることになります。たとえば、セキュリティ チャットボットを使用すると、従業員にセキュリティをより便利に提供できます。 6. AIによる変革への期待が高すぎる 無理な期待を持って AI の実装を開始すると、セキュリティと生産性の問題につながります。組織内のすべてのビジネス上の問題を解決するために AI を使用しようとしないでください。セキュリティの観点から見ると、このような広範な実装を制御することは非常に困難です。代わりに、リスクの低いアプローチを採用する必要があります。つまり、日常的なセキュリティ管理タスクの自動化など、一度に 1 つの領域に AI を適用し、徐々に範囲を拡大します。 7. 実際のデータをAIソリューションに渡すことを望まない ほとんどの開発者や技術者は、テスト環境を構築することでリスクを軽減したいと考えています。これは使用すると良い原則です。しかし、人工知能に使用する場合、このアプローチには限界があります。 AI システムが本当に安全かどうかを知るには、顧客情報、財務データなどの実際のデータを AI システムに提供する必要があります。こうした情報をすべて渡す意思がなければ、AI 導入によるセキュリティ リスクや生産性のメリットを評価することはできません。 完全にオープンな視点でAIを導入する ビジネスで AI を使用することには確かに危険とリスクが伴います。ただし、これらのリスクは、トレーニング、積極的な管理監視、およびこれら 7 つの間違いの回避を通じて管理できます。 |
>>: PyTorch の 4 分間のチュートリアルで線形回帰の実行方法を学びます
中国工程院の院士である倪光南氏は、第2回北京人工知能産業革新発展会議で人工知能の発展に関する見解と経...
捜査チームがスケッチアーティストを雇って、目撃者が語った犯人像を描いてもらう犯罪番組を見たことを覚え...
行動バイオメトリクスは、トラブルのない認証を実現し、世界中の消費者の体験に革命をもたらす画期的なテク...
モノのインターネット、クラウド コンピューティング、ビッグ データ、人工知能は、概念からアプリケーシ...
新興技術のデジタル時代において、大規模言語モデル (LLM) は、人間社会と文化の多くの側面に革命を...
今日、言語を超えた効果的なコミュニケーションはこれまで以上に重要になっています。企業が新しい市場に進...
[[335691]]ビッグデータダイジェスト制作出典: Wired編纂者:Roubao、Xia Ya...
[[333020]]ロビン・リー:業界の人々はAIに大きな可能性があることを知っており、悲観的な時...
夏が来ると、人類の最大の敵の一つである蚊が活発になります。彼らは2~3匹で「家に侵入」し、「ブンブン...
人工知能は教育分野に大きな波を起こしている。この傾向は、北京師範大学とiFLYTEKが共催した「人工...
[[438887]]現在、機械学習システムは、コンピュータービジョン、音声認識、自然言語処理など、多...
DeepRec(PAI-TF)は、アリババグループの統合オープンソース推奨エンジン(https://...
[[275279]]アンソニー・レヴァンドウスキーはシリコンバレーのスターエンジニアです。自動運転技...