サイバーセキュリティにおける AI: 誇大宣伝と現実

サイバーセキュリティにおける AI: 誇大宣伝と現実

人工知能(AI)の可能性は魅力的です。セキュリティ管理者への警鐘。自律的な自己学習ソリューションの力を活用したいと考えている企業から関心と投資が生まれています。結局のところ、AI はすでに保険業界、乳がん研究、金融、法執行機関に利益をもたらしています。ではなぜ安全ではないのでしょうか?

[[278663]]

最近の ESET の調査によると、新たなビジネス期待と誤解を招くマーケティング用語により AI をめぐる誇大宣伝が過剰になり、情報セキュリティの意思決定者の 75% が AI をセキュリティ問題の万能薬と見なすようになったそうです。このような高い期待と現在の AI テクノロジーの現実が組み合わさると、組織は危険にさらされます。 AI は人間のアナリストを支援する上で非常に役立ちますが、単独では経験豊富なアナリストが実装した強固な情報セキュリティ戦略に取って代わることはできません。

Facebook が自社のサービスを通じて広がる「フェイクニュース」を排除する取り組みを例に挙げてみましょう。このソーシャルネットワーキングプラットフォームは、フェイクニュースを追跡し排除するツールの開発に優秀なエンジニア数名を再配置し、ブルームズベリーAIなどの優秀なAIスタートアップ企業数社を雇用した。こうした多大な努力にもかかわらず、Facebook の製品管理担当ディレクターのグレッグ・マーラ氏は、「…フェイクニュースの閲覧数をせいぜい 80% 削減できる」と認めている。AI が Facebook の「フェイクニュース」問題の 80% しか解決しないのであれば、このセキュリティ企業は明らかに野心的すぎる。

厳しい現実は、AI を巡る興奮の多くは単なる誇大宣伝に過ぎないということです。そうは言っても、AIには希望があります。スマート AI は天才レベルのソリューションとなる可能性を秘めています。今こそ現実を直視すべき時です。AI は何ができて、何ができないのでしょうか?

人工知能はサイバーセキュリティの疲労を軽減できる

脅威の状況の根本的な変化と、セキュリティアナリストのポジションを埋める資格のある候補者の不足により、AI などのテクノロジーをサイバーセキュリティに導入する必要性が長い間迫られてきました。

過去数年間で、ほぼすべての組織がデジタル変革を経験しました。 「デジタルトランスフォーメーション」という用語は、デジタル技術を使用してプロセスを変革し、組織の効率性や有効性を高めることを意味します。アイデアは、テクノロジーを使用して既存のサービスをデジタル形式で複製するだけではなく、テクノロジーを使用してサービスをより良い製品に変換することです。

デジタル変革にはさまざまなテクノロジーが関係しますが、現在最もホットなトピックはクラウド コンピューティング、モノのインターネット、ビッグ データ、人工知能です。それだけでなく、組織は現状に絶えず挑戦し、実験し、失敗を受け入れることを要求する文化的変化でもあります。場合によっては、これは、会社が築き上げてきた長年のビジネス プロセスを放棄し、まだ定義中の比較的新しい慣行を採用することを意味します。

デジタル変革にはさまざまなテクノロジーが関係しますが、現在最もホットなトピックはクラウド コンピューティング、モノのインターネット、ビッグ データ、人工知能です。それだけでなく、組織は現状に絶えず挑戦し、実験し、失敗を受け入れることを要求する文化的変化でもあります。場合によっては、これは、会社が築き上げてきた長年のビジネス プロセスを放棄し、まだ定義中の比較的新しい慣行を採用することを意味します。

このようなテクノロジーにより、驚くべき新しい組織機能が実現しましたが、同時に、新たな複雑さ、相互接続性、脆弱性(攻撃対象領域の拡大)も生み出され、サイバー犯罪者はすぐにそれを悪用することを学びました。従来の境界ベースおよびルールベースのサイバーセキュリティのアプローチは、新しいデジタル組織では機能しなくなりました。同時に、人間のみで構成されたサイバーセキュリティ チームでは、あらゆる新しいテクノロジーとデバイスによって生成される日々の脅威デ​​ータの洪水を処理することはできません。

IBM Security Intelligence が指摘しているように、セキュリティ アナリストは過重労働で、人員不足に陥っており、業務に追われています。拡大し続ける脅威の状況に追いつくことは、特にセキュリティ オペレーション センター (SOC) を運営する日常的なタスクを考えると、人間には不可能な偉業です。

しかし、安全性の向上によるメリットは大きく、大幅なコスト削減もそのひとつです。 Ponemon によれば、100 日以内に侵害を検出する組織は、100 日以内に検出されないインシデントと比較して 100 万ドル以上を節約できます。同様に、侵害を 30 日以内に封じ込めた組織は、30 日以上 (ただし 100 日未満) かかった組織と比較して、100 万ドル以上を節約しました。

この状況を緩和するために AI は何ができるでしょうか?

AI のスピード、精度、計算能力は、国境を越えた組織を保護し、あらゆる組織が日々直面している膨大な量の脅威データを継続的に処理するユニークな機会を提供します。これは、AI が特定のパターンを探すといった退屈で反復的なタスクに優れているためです。そのため、これを実装することで、ほとんどのセキュリティ オペレーション センター (SOC) が直面するリソースの制約を軽減できます。

これは、侵入防止と検出、詐欺検出、DNS データの流出や資格情報の不正使用などの悪意のあるアクティビティの根絶に計り知れないメリットをもたらします。さらに、AI アルゴリズムはユーザーおよびネットワークの動作分析に適用できます。たとえば、機械学習は、人、エンドポイント、プリンターなどのネットワーク デバイスのアクティビティを調べて、不正な内部者による悪意のあるアクティビティをフラグ付けできます。

AIは「魔法」の地位に達したのか?

「十分に進歩した技術は魔法と区別がつかない」とアーサー・クラークは書いている。しかし、これは AI に関しては真実とは言えない。ロドニー・ブルックスは、「AI は 1960 年代、1980 年代に何度も過大評価されてきましたが、今もまた過大評価されていると私は考えています。しかし、長期的にはその可能性も過小評価される可能性があります」と述べています。実際、ブルックスによると、AI は次のようにアマラの法則のもう 1 つの応用にすぎません。

「私たちはテクノロジーの影響を短期的には過大評価し、長期的には過小評価する傾向があります。」

AI に関して私たちが犯す間違いの 1 つは、AI を組織に振りかければ組織がより賢くなる一種の「魔法の粉」のように考えがちであることです。そうではありません。 Google Cloud AI の新責任者アンドリュー・ムーア氏は最近、次のように述べた。「AI とは、数学を使って機械に本当に良い判断をさせることです。現時点では、実際の人間の知能 (HI) をシミュレートすることではありません。AI の問題を解決するには、多くの難しいエンジニアリング、数学、線形代数などが必要です。魔法の粉で解決できるものではありません。」

はい、実際のところ、今日の AI アルゴリズムは、従来の機械学習アルゴリズムに過ぎません。機械学習は、統計的手法を使用して、コンピューターに「学習」する能力を与えます。つまり、明示的にプログラムすることなく、データを使用してデータ内のパターンを識別し、特定のタスクのパフォーマンスを徐々に向上させます。機械学習システムは、一方では大量のデータを受け取り、他方では推論、相関関係、推奨、場合によっては決定を吐き出すアルゴリズムのセットです。そして、このテクノロジーはすでに普及しており、Google、Amazon、Facebook、Netflix、Spotify などとのほぼすべてのやり取りは機械学習システムによって実現されています。

スタンフォード大学教授で、元 Google Cloud の主任 AI 科学者である Lii-Fei Li 氏は、米国下院科学宇宙技術委員会の公聴会で次のように述べました。「AI には人工的なものは何もありません。AI は人間によって発想され、人間によって作られ、そして最も重要なことは、人間に影響を与えるということです。AI は、私たちが理解し始めたばかりの強力なツールであり、重大な責任を伴います。」

人工知能はHIを排除できない

人工知能は主に大量の脅威データの処理に重点を置いています。これらのアクティビティをほぼリアルタイムの速度で事実上無制限に実行できるため、最新の効果的なサイバーセキュリティ プログラムにとって貴重な味方となります。これらのアクティビティはサイバーセキュリティのあらゆる段階で実行できるため、組織が攻撃される前、攻撃中、攻撃後に AI が価値を提供できるようになります。しかし、AI は人間の洞察力を再現することはできません。人間のサイバーセキュリティ専門家の必要性がなくなるわけではありません。

Computer Weekly の記事で述べられているように、機械学習ツールは、サンプルが正しくラベル付けされている場合にクリーンなデータと悪意のあるデータの違いをすばやく学習できるため、マルウェア分析にとって「非常に貴重」です。これらのエンジンの性能は、そこに入力されるデータによって決まります。アルゴリズムにデータを入力するだけでは、何かが異常かどうかはアナリストにわかりますが、関係があるかどうかはわかりません。データ サイエンティストは、AI の力を適切に活用するために、適切な質問をする方法を知る必要があります。

これがまさに教師あり機械学習と教師なし機械学習の違いです。現在のツールとテクノロジーは前者をサポートしていますが、後者はまだ手の届かないところにあります。システムの入出力を監視し、アルゴリズムをトレーニングする人間がいなければ、AI ツールは基本的なシステム データをキャプチャしてレポートする可能性を秘めていますが、インテリジェントな脅威対応計画を提供することは AI ツールの範囲をはるかに超えています。これは、AI によって検出されたセキュリティ アラートの 55% に依然として人間による監視が必要であることが判明した Ponemon の調査と一致しています。

AI: 味方か敵か?

AI をセキュリティ データに適用することと、この記事の冒頭で挙げた他の分野に適用することとの主な違いの 1 つは、セキュリティ分野ではデータが反撃してくるという点です。 AI リソースを開発するためのツールはパブリック ドメインで広く利用可能であるため、今後数年間で、防御用に作成された AI テクノロジよりも攻撃ベースの AI テクノロジが普及する可能性があります。したがって、AI は他の分野では効果的に使用されていますが、セキュリティに AI を使用することは、より困難な作業であり、より高度な人間の関与が必要になります。

エンタープライズセキュリティ企業 SAP NS2 の社長兼 CEO であるマーク・テストーニ氏は次のようにコメントしています。

「ハッカーは、ハッカーから身を守る能力を開発しているコミュニティと同じくらい洗練されています。彼らは、巧妙なフィッシング、潜在的なターゲットの行動を分析して使用する攻撃の種類を決定すること、そして隠れるためにいつスパイするかを知っている「スマートマルウェア」など、同じテクニックを使用しています。」

サイバー犯罪者が AI テクノロジーを悪用する最も一般的な攻撃ベクトルは次のとおりです。

  • 機械学習ポイズニングは、アルゴリズムが学習するデータプールをポイズニングすることでAIの有効性を回避し、AIシステムが悪意のある活動を無害であると識別するようにします。
  • チャットボットに関連するサイバー犯罪。チャットボットは人々の行動を分析し、模倣することができる。
  • ランサムウェアのプロモーション
  • なりすまし詐欺と個人情報窃盗
  • 情報を収集し、脆弱性をスキャンする
  • フィッシング
  • 分散型サービス拒否
  • (DDoS) 攻撃

AIの導入

AI が企業のセキュリティを強化するために実際に何ができるかということに加えて、企業は実装も考慮する必要があります。組織はどのようにして AI ソリューションを効果的に導入して成果を最大化できるでしょうか?

まず、企業は「AI が魔法だと考えるのをやめる」必要があります。AI 自体は万能薬ではなく、セキュリティ上の課題をすべて解決することもできません。しかし、AI は SOC のパフォーマンスを向上させることができます。 SOC チームは、AI テクノロジーの機能と限界を理解し、AI テクノロジーがどのように役立つのか、また、どこで人間の関与がまだ必要なのかについて適切な期待を持つ必要があります。

AI 搭載ツールは、特に悪意のある動作が分析に追加されたときにアラートを自動的に分析し、一見無害な動作の大部分を除外することで、チームのメンバーが「おそらく悪意のある」アクティビティのより小さな割合に集中できるようにすることで、セキュリティを向上させることができます。このように AI を使用することで、SOC は、実際にアナリストの数を増やすことなく、人間のセキュリティ アナリストによって解決される重大度の高いインシデントの数を大幅に増やし、攻撃が成功する可能性を減らすことができます。

結論は

人工知能は非常に重要であり、私たちの生活を想像を超えて変えるでしょう。 しかし、それがすでに起こったと主張するのは、単にナイーブなだけです。 人工知能には大きな可能性があり、現在の開発により速度と精度が向上しています。 AI が本当に魔法のようになると、適切な基盤と人間のスキルの構築、そして AI ベースのシステムを使用した経験の蓄積を組み合わせることで、AI の既存の利点を最大限に活用し、機械知能の未来の基盤を築くことができます。

<<:  AI時代になっても、あなたのキャリアは存続できるでしょうか?

>>:  人工知能が教育を改善する32の方法

ブログ    
ブログ    

推薦する

...

[ディープラーニングシリーズ] PaddlePaddle と Tensorflow を使用したクラシック CNN ネットワーク AlexNet の実装

先週、私たちは PaddlePaddle と Tensorflow を使用して画像分類を実装し、自分...

図解 Raft コンセンサス アルゴリズム: リーダーを選出する方法

[[393927]] Raft は、リーダーを基準としてノード間のログの一貫性を実現するコンセンサス...

GPT-4 がビッグモデル幻覚ランキングで優勝、NVIDIA の科学者が偽物と激しく戦う! ChatGPTのメタ版作者が抗議のため長文の記事を投稿

大型モデルにおける幻覚の問題は、業界ではよく話題になります。最近、Vectara という組織が Gi...

C#アルゴリズムに関する面接の質問の簡単な分析

C# アルゴリズムの面接の質問: プログラミング: 猫が叫び、ネズミが全員逃げ出し、飼い主は目を覚ま...

プログラミング啓蒙ロボット、本物の人形か、それとも本当の物語か?

[[255856]]画像ソース @Visual China人工知能の普及により、中国の親たちの不安...

AI時代ではモデルは大きいほど良い

今年も4分の3が過ぎた。テクノロジー業界から見れば、「室温超伝導」が実現可能であることが公式に証明さ...

チンチラの死: 十分に訓練すれば小型モデルでも大型モデルを上回る性能を発揮できる

2022年3月、DeepMindの論文「計算最適化大規模言語モデルのトレーニング」では、構築されたC...

AIはどんどん強くなってきていますが、人間は恐れるべきでしょうか?実は、ロボットに置き換えられるよりも大きな危機があるのです。

人工知能は急速に発展しており、多くの人が脅威を感じています。しかし実際には、取って代わられることを心...

データサイエンス技術の未来

[[361283]]画像ソース: https://pixabay.com/images/id-477...

大規模モデルを路上に展開するための重要なステップ: 世界初の言語 + 自動運転オープンソースデータセットが登場

DriveLM は、データセットとモデルで構成される言語ベースのドライブ プロジェクトです。 Dri...

AI 開発の方向性に関する大論争: ハイブリッド AI?強化学習?実践的な知識と常識をAIに統合する?

[[396127]]著者: Ben Dickson はソフトウェア エンジニアであり、テクノロジー...

ニューラルネットワークの父ヒントン氏は、34年前の画期的な業績を再検証し、脳内のAI手法の「存在」を模索している。

これまで耳にした人工知能の進歩のほぼすべては、30 年前に発表された、多層ニューラル ネットワークを...

リスト発表:海雲捷雲の田良氏が「2021年科学技術影響力のある人物賞」を受賞

著名なIT技術メディア51CTOが主催する第16回中国企業年次選考活動「IT印象:イノベーションの活...

AI時代のITリーダーに必要な6つのソフトスキル

人工知能は組織内で大きな変化をもたらしますが、変化とともに、AI が仕事を奪ってしまうのではないかと...