ネットワーク攻撃と防御における人工知能の応用と問題分析

ネットワーク攻撃と防御における人工知能の応用と問題分析

サイバー攻撃と防御の対決は絶えず進化とアップグレードを続けています。人工知能は自己学習と適応能力を備え、自動化されたネットワーク攻撃と防御をサポートし、ネットワーク攻撃と防御の中核となるキーテクノロジーの1つとなっています。

[[415725]]

1. ネットワーク攻撃と防御における人工知能の応用

ネットワーク攻撃と防御の分野における人工知能の応用をより深く理解するために、本稿では、攻撃と防御の観点と、攻撃者と防御者が人工知能を使用する意図という 2 つの次元から 4 つの側面について説明します (下図を参照)。

ネットワーク攻撃と防御における人工知能の応用

1. 人工知能がサイバー攻撃を支援する

人工知能はサイバー攻撃をより強力にします。一方では、サイバー攻撃に関わるタスクを自動化および拡張し、低コストで高い利益を得ることができます。他方では、攻撃対象のセキュリティ防御メカニズムを自動的に分析し、弱いリンクを狙うように攻撃をカスタマイズすることで、セキュリティメカニズムを回避し、攻撃の成功率を高めることができます。近年のサイバー攻撃における人工知能の応用に関する研究によると、人工知能を使用して実行されるサイバー攻撃の手法には、ウイルス対策ソフトウェアを回避するための悪意のあるコードや通信トラフィックのカスタマイズ、インテリジェントなパスワード推測、不正アクセスを実現するための検証コード技術の破り、スピアフィッシング、攻撃対象の正確な位置特定と攻撃、自動化された侵入テストなどが含まれますが、これらに限定されません。

1. 悪意のあるコードは強制終了の対象になりません。深層強化学習ネットワークを使用して、静的 PE (移植ファイル) アンチウイルス エンジンを攻撃するブラック ボックス攻撃方法を提案します。これは、敵対的な PE 悪意のあるコードを生成できる最初の研究であり、シミュレートされた実際の攻撃で 90% の成功率を達成しました。

2. 生成的敵対ネットワーク フレームワーク IDSGAN に基づいて悪意のあるトラフィックを生成します。生成的敵対ネットワークベースのフレームワーク IDSGAN は、ジェネレーターを使用して、元の悪意のあるトラフィックを、侵入検知システムを欺いて回避できる敵対的な悪意のあるトラフィックに変換します。実験により、ほとんどの悪意のあるトラフィックは、既存の侵入検知システムを欺いて検出を回避できることが示されており、回避率は 99.0% を超えています。

3. インテリジェントなパスワード推測。複数のデータセットに基づくパスワード生成モデル GENPass は、PCFG (確率的文脈自由文法) と GAN (敵対的生成ネットワーク) のアイデアを借用し、長期短期記憶ニューラルネットワークトレーニングを通じて、単一データセットのヒット率と複数データセットの一般化を向上させます。

4. 新しいテキストキャプチャソルバー。 GAN に基づく汎用的かつ効果的なテキスト CAPTCHA ソルバーが提案されています。認証コードに使用されている文字や文字の回転角度などをパラメータ化することで、認証コードのトレーニングデータを自動生成し、転移学習技術を用いてモデルをチューニングすることで、認証コード認識モデルの一般化能力と認識精度を向上させます。この方法は、Google、eBay、Microsoft、Wikipedia、Taobao、Baidu、Tencent、Sohu、JD.com など、世界のトップ 50 の Web サイト (2018 年 4 月現在) で使用されているすべてのテキスト検証コードを解読できます。

5. 自動化された高度なスピアフィッシング。 Twitter をベースにしたエンドツーエンドのスピアフィッシング手法では、マルコフモデルとリカレントニューラルネットワーク (LSTM) を使用して、人間が書いたツイートに近いツイートを作成します。テストの結果、このフィッシング フレームワークの成功率は 30% ~ 60% であり、手動によるスピア フィッシングの成功率 (45%) を上回ったことが判明しました。

6. フィッシングメールの生成。 RNN(リカレントニューラルネットワーク)自然言語生成技術NLGをベースに、標的に対して偽のメール(悪意のあるメール)を自動生成し、個人の実際のメールデータとフィッシングメールデータでトレーニングします。実験により、RNN で生成された電子メールは一貫性が高く、文法エラーが少ないため、フィッシング メール攻撃に対して効果的であることがわかっています。

7. DeepLo​​cker 新しいマルウェア。このマルウェアは標的を絞った巧妙な攻撃で、特定の標的に感染するまで悪意を隠すことができます。人工知能モデル(ディープニューラルネットワークDNN)が顔認識、地理位置情報、音声認識などを通じて攻撃対象を特定すると、悪意のある動作を開始します。人工知能を使用することで、攻撃を解除するトリガー条件をリバースエンジニアリングすることがほぼ不可能になります。

8. DeepExploit 完全自動侵入テスト ツール。自動侵入テストは、A3C 分散トレーニング強化学習アルゴリズムの高度なバージョンを使用して実現され、インテリジェンス収集、脅威モデリング、脆弱性分析、脆弱性悪用、侵入後のテストを自動的に完了し、レポートを生成できます。

9. ディープラーニングに基づくDeepDGAアルゴリズム。 Alexa ウェブサイトに掲載されているよく知られたドメイン名をトレーニング データとして使用し、LSTM アルゴリズムと GAN を使用してモデルを構築します。生成されたドメイン名は通常のウェブサイトのドメイン名と非常に類似しており、検出が困難です。

10. 人工知能ベースの脆弱性スキャンツール。 2019年8月から、Instagramユーザーはハッカーによってアカウント情報が変更され、アカウントにログインできないことに気付きました。2019年11月には、Instagramコードのバグによりデータ漏洩が発生し、ユーザーのパスワードがユーザーのブラウザのウェブアドレスに表示される可能性がありました。どちらの攻撃でも、攻撃者は人工知能ベースのツールを使用してサーバーの脆弱性をスキャンしたと推測されています。

2011年にロッキード・マーティンが提唱したサイバーキルチェーンモデル(攻撃プロセスを偵察・追跡、兵器の構築、ペイロードの配送、脆弱性の悪用、インストールと埋め込み、コマンドと制御、目標達成の7つの段階に分ける)を参考に、サイバー攻撃における人工知能の応用研究について説明します(下表参照)。ハッカーは人工知能技術を使用してサイバーキルチェーンモデルの各攻撃段階を最適化し、最大の利益を得ようとしていることがわかります。

ネットワーク攻撃における人工知能の応用に関する研究

2. 人工知能がネットワーク防御を支援

サイバーセキュリティの脅威は、情報、隠蔽、規模を特徴とする、終わりのない流れで出現しています。サイバーセキュリティの防御は大きな課題に直面しています。 AI 駆動型ネットワーク防御は強力な自律学習およびデータ分析機能を備えており、脅威の発見から対応までの間隔を大幅に短縮し、セキュリティ脅威の自動的な迅速な識別、検出、および廃棄を可能にし、さまざまなセキュリティ脅威への対応において重要な役割を果たします。特に、人工知能は未知の脅威やAPTなどの高度な脅威を発見する上で大きな利点があります。

人工知能は、ますます複雑化するネットワーク セキュリティの問題に対処するための新しいアイデアを人々に提供し続けています。現在、人工知能は、マルウェア/トラフィック検出、悪意のあるドメイン名/ URL 検出、フィッシングメール検出、ネットワーク攻撃検出、ソフトウェア脆弱性マイニング、脅威インテリジェンス収集などに適用されています。具体的な応用研究には以下が含まれます。

1. マルウェアの検出。マルウェア サンプルは 2 次元画像に変換され、トレーニング済みのディープ ニューラル ネットワーク (DNN) に入力され、「クリーン」または「感染」に分類されます。この検出方法は、誤検出率 2.58% で 99.07% の精度を達成しました。

2. 未知の暗号化された悪意のあるトラフィックの検出。有効な送信ペイロードから特徴を抽出できない場合、LSTM ベースの暗号化された悪意のあるトラフィック検出モデルは、2 か月のトレーニングを経て、さまざまなマルウェア ファミリからの未知の暗号化された悪意のあるトラフィックを識別できます。

3. 悪意のある(ゾンビ)ネットワーク トラフィックの検出。 BoTShark は、ディープラーニングを使用し、基盤となるボットネット アーキテクチャから独立した悪意のあるネットワーク トラフィック検出器であり、スタック オートエンコーダと畳み込みニューラル ネットワーク (CNN) という 2 つのディープラーニング検出モデルを採用して、検出システムがネットワーク トラフィックの主な特徴に依存しないようにしています。検出器は 91% の分類精度と 13% の再現率を達成しました。

4. 人工知能に基づく悪質なドメイン名を検出する方法。脅威インテリジェンスには誤検知や検出漏れが多く、制御不能であるという事実を考慮して、脅威インテリジェンスをトレーニング セットとして使用し、サポート ベクター マシン (SVM) を使用して脅威インテリジェンスの背後にあるデータの特徴を学習します。人工知能の強力な一般化能力により、誤検知が削減され、セキュリティ システムが制御可能になります。

5. 機械学習を使用して悪意のある URL を検出します。機械学習クラスタリング アルゴリズムとドメイン生成アルゴリズム DGA 検出を組み合わせることで、悪意のある URL の検出率を高めることができます。既知の悪意のある URL を検出できるだけでなく、これまで公開されたことのない新しい亜種も検出できます。

6. 新しいフィッシングメール検出。ディープニューラルネットワークDNNはフィッシングメールの検出に使用され、実験ではDNNがフィッシングメールの検出において94.27%の検出性能を達成できることが示され、自動化されたフィッシング識別におけるディープラーニング技術の実現可能性がさらに証明されました。

7. 人工知能ベースのサイバーセキュリティプラットフォーム「AI2」。このプラットフォームは、教師なし機械学習と教師あり学習の手法を組み合わせています。まず、教師なし機械学習を使用してログファイルを自律的にスキャンします。アナリストはスキャン結果を確認し、確認された結果を AI2 システムに組み込んで新しいログを分析します。このプラットフォームは、サイバー攻撃の約 85% を検出できます。

8. 機械学習に基づく一般的な脆弱性検出方法。これは、脆弱性の不一致に基づく最初の一般的な脆弱性検出方法です。この方法は、既存の脆弱性検出方法とは異なり、サンプルの収集、クリーニング、ラベル付けに多くの時間を費やすことなく、2 段階のクラスタリングを使用して、類似しているが一貫性のない機能を持つコード スニペットを検出します。同時に、この方法ではクラスタリング結果を手動で分析して、実際の脆弱性をより迅速に特定します。この方法により、オープンソース ソフトウェアでこれまで知られていなかった 22 件の脆弱性が発見されました。

9. ディープラーニングに基づく脅威インテリジェンス知識グラフ構築技術。脅威インテリジェンスのエンティティとエンティティ関係は、ディープ ビリーフ ネットワーク (DBN) によってトレーニングされたモデルを使用して自動的に抽出されます。この方法により、浅いニューラル ネットワークの認識精度と手動抽出率が大幅に向上し、脅威インテリジェンス ナレッジ グラフの自動構築を強力にサポートできます。

10. ハイブリッド単語ベクトル深層学習モデルに基づくDGAドメイン名検出方法。ドメイン名文字列の情報利用率を向上させるために、DGAドメイン名の文字レベルの単語ベクトルとバイグラム単語ベクトルを初めて組み合わせ、畳み込みニューラルネットワーク(CNN)とLSTMで構成されるハイブリッド単語ベクトル方式に基づくディープラーニングモデルを設計しました。実験により、この方法は優れた特徴抽出能力と分類効果を持ち、データの不均衡による悪影響をある程度軽減できることが証明されました。

上記の応用研究から、現在の人工知能応用研究は主に悪意のある行動の検出に焦点を当てており、検出結果に基づいて対応、処分、能動的な防御、脅威予測の能力を継続的に向上させていることがわかります。

3. AI自身のセキュリティ問題への攻撃

人工知能の応用が広まるにつれ、ディープラーニングフレームワークのソフトウェア実装の脆弱性、悪意のある敵対的サンプルの生成、トレーニングデータの汚染、強いデータ依存性など、未熟な技術や悪意のあるアプリケーションによって引き起こされるセキュリティリスクが徐々に明らかになってきました。ハッカーは AI システムの弱点を見つけて防御を回避し、攻撃を仕掛け、AI 駆動型システムに混乱を引き起こし、判断ミスや誤判断を引き起こしたり、さらにはシステムクラッシュやハイジャックを引き起こしたりする可能性があります。人工知能に固有のセキュリティ問題は、主に、トレーニング データ、開発フレームワーク、アルゴリズム、モデル、および人工知能システムをサポートするソフトウェアとハ​​ードウェア機器に反映されています。

1. データのセキュリティ。データ セットの品質 (データのサイズ、バランス、精度など) は、人工知能アルゴリズムの適用にとって非常に重要であり、人工知能アルゴリズムの実行結果に影響します。不適切なデータセットにより、AI アルゴリズム モデルが無効になったり、安全でない結果が生成されたりする可能性があります。比較的一般的なセキュリティ問題は、トレーニング データを汚染することで AI の意思決定エラーを引き起こすデータ ポイズニング攻撃です。たとえば、スパマーはスパムメールに「良い言葉」を挿入して、スパムフィルターの分類器をバイパスする単純な「回避攻撃」を実行し、悪意のあるメールがスパム分類の検出を逃れられるようにします(最も初期の研究)。

2. フレームワークのセキュリティ。ディープラーニング フレームワークとそれが依存するサードパーティ ライブラリには多くのセキュリティ リスクがあり、フレームワークに基づいて実装された人工知能アルゴリズムの実行時にエラーが発生する可能性があります。 360 Security Lab およびその他の部門の研究者は、3 つの主流のディープラーニング フレームワーク (Caffe、TensorFlow、Torch) の実装におけるセキュリティの脅威を調査しました。その結果、これらのフレームワークにはヒープ オーバーフローやデジタル オーバーフローなどの多くの脆弱性が見つかり、そのうち 15 件には CVE 番号が付けられています。

3. アルゴリズムのセキュリティ。ディープ ニューラル ネットワークは多くの分野で優れた成果を上げていますが、その優れた成果の理由や、そのアルゴリズムにおける隠れ層とニューロン パラメータの意味は依然として不明です。説明可能性の欠如は、アルゴリズム エラー、敵対的サンプル攻撃、アルゴリズムのバックドアを埋め込むなどのその他の攻撃行為に簡単につながる可能性があります。一部の研究者は、遺伝的プログラミング手法を使用してマルウェアをランダムに変更し、PDF の構造的特徴に基づく機械学習マルウェア分類器を回避するという回避攻撃を Gmail PDF フィルタリングに対して導入しました。この方法は、2 つの非常に精度の高い悪意のある PDF ファイル分類器を攻撃することに成功しただけでなく、Gmail に組み込まれたマルウェア分類器も攻撃しました。既知の悪意のある PDF サンプルを変更するのに 4 行のコードしかかからず、50% 近くのエスケープ率を達成し、10 億人の Gmail ユーザーに影響を与えました。

4. モデルのセキュリティ。人工知能アプリケーションの中核として、モデルは攻撃者の主なターゲットになっています。攻撃者は、ターゲット モデルに大量の予測クエリを送信し、モデル出力を使用してモデル構造、パラメーター、トレーニング データ、テスト データなどのプライバシーに敏感なデータを盗み、ターゲット モデルと同じまたは類似のモデルをさらにトレーニングします。リバース エンジニアリングなどの従来のセキュリティ テクノロジを使用してモデル ファイルを直接復元します。攻撃者は、オープン ソース モデルを使用して悪意のある動作をモデルに注入し、外部に公開して共有します。 2017 年に Papernot らは、ターゲット分類器の入力と出力を収集して、ターゲット モデルの代替 (ローカルで構築された類似モデル) をトレーニングするための包括的なデータセットを構築し、ターゲット モデルを攻撃するブラック ボックス モデル窃盗攻撃を提案しました。この方法は、最新のディープニューラルネットワークに加えて、さまざまな種類の機械学習分類器にも適用できます。

5. ソフトウェアとハ​​ードウェアのセキュリティ。上記のセキュリティ問題に加えて、人工知能アプリケーション(データの収集と保存、アプリケーションの操作などに関連する)を搭載するハードウェアおよびソフトウェア機器は、従来のセキュリティリスクに直面しており、既存の脆弱性は攻撃者に簡単に悪用される可能性があります。テンセント・キーン・ラボは、ブラックハット2018カンファレンスで、直接的な物理的接触を避ける遠隔攻撃シナリオでテスラのAutopolit自動運転支援システムに対する攻撃テストを紹介した。攻撃プロセス全体は、Webkit ブラウザの脆弱性を悪用して任意のブラウザ コードを実行することから始まり、最終的に Autopilot の制御を獲得します。

攻撃者は、前述の人工知能自体のセキュリティ問題に対して攻撃を仕掛けることができます。その中でも、より一般的な攻撃は敵対的サンプル攻撃です。攻撃者は、人間が認識できない、入念に構築された少量の「妨害」を入力データに追加し、人工知能の推論プロセスを妨害して、モデルに誤った予測結果を出力させ、検出を回避するという攻撃効果を実現します。さらに、敵対的サンプル攻撃は強力な転送能力を持ち、特定のモデルを攻撃する敵対的サンプルは他の異なるモデルに対しても有効です。

(IV)AI自身のセキュリティ問題からの保護

データ量と計算能力が増加し続けるにつれて、人工知能の応用シナリオは今後も増え続けるでしょう。人工知能自体のセキュリティは、その発展のボトルネックとなっています。人工知能自身のセキュリティの重要性は自明です。トレーニング データ、開発フレームワーク、アルゴリズム、モデル、ソフトウェアおよびハードウェア機器の観点から見た人工知能自体のセキュリティ問題に関しては、より一般的に使用される保護対策は次のとおりです。

1. データのセキュリティ。異常データと正常データの違いを分析して異常データをフィルタリングし、統計的手法に基づいてトレーニングデータセット内の外れ値を検出し、複数の独立したモデルを使用して統合分析を行い、異なるデータセットを使用して異なるモデルをトレーニングすることで、データポイズニング攻撃などの影響を軽減します。

2. フレームワークのセキュリティ。コード監査、ファズ テストなどのテクノロジーを通じて、開発フレームワークのセキュリティ脆弱性を発見して修復できます。また、ホワイト ハットやセキュリティ研究チームなどのコミュニティの力を借りて、セキュリティの問題を発見し、フレームワーク プラットフォームのセキュリティ リスクを軽減できます。

3. アルゴリズムのセキュリティ。データ収集フェーズでは、入力データが前処理され、敵対的サンプルに存在する敵対的摂動が除去されます。モデルトレーニングフェーズでは、敵対的サンプルと良性サンプルを使用してニューラルネットワーク上で敵対的トレーニングを実行し、敵対的サンプル攻撃から防御し、アルゴリズムの解釈可能性を高め、アルゴリズムの決定ロジック、内部動作メカニズム、意思決定プロセスと根拠などを明確にします。モデル使用フェーズでは、データ フィーチャ レイヤーまたはモデル予測結果の差異を通じて敵対的サンプル検出が実行されます。入力データは変形と変換によって再構築され、セマンティクスを維持しながら攻撃者の敵対的摂動を破壊します。

4. モデルのセキュリティ。データ収集フェーズでは、データ収集の粒度が強化され、トレーニング データ内の環境要因の多様性が高まり、変化する環境に対するモデルの適応性が向上します。モデルのトレーニング段階では、モデルが簡単に乱されない特徴を学習したり、そのような特徴への依存度を下げたりすることで、モデルの堅牢性を向上させます。トレーニング データは複数のセットに分割され、独立したモデルを個別にトレーニングし、複数のモデルが投票してモデルを共同でトレーニングすることで、トレーニング データの漏洩を防ぎます。データ/モデルのトレーニング ステップにノイズを追加したり、モデル構造を意図的に調整したりすることで、モデル出力結果のトレーニング データやモデルに対する感度を下げ、モデル データのプライバシーを保護します。モデルが盗まれるのを防ぐため、モデル ファイルに透かしを埋め込みます。通常の分類に関係のないモデル内のニューロンは、バックドア ニューロンが効く可能性を減らすためにモデル プルーニングによって削除されるか、クリーンなデータ セットを使用してモデルを微調整することでモデル内のバックドアを排除します。モデルの使用フェーズでは、入力データを前処理してバックドア攻撃の可能性を減らし、モデル操作中にランダム性 (入力/パラメーター/出力) を導入して攻撃者がモデルに関する正確な情報を取得できないようにし、モデル出力やモデル パラメーター更新などのインタラクティブ データに含まれる有効な情報を難読化してモデル情報の可読性を低下させ、アクセス制御戦略 (認証、アクセス回数など) を使用してモデル システムへのアクセスを制限し、モデル情報の漏洩を防ぎ、モデル ファイルを検証または検証してセキュリティの問題を特定します。

5. ソフトウェアとハ​​ードウェアのセキュリティ。通信中または保存中にモデル関連データを暗号化して機密データが漏洩しないようにします。ソフトウェアおよびハードウェア機器のセキュリティ チェックを実行して悪意のある動作をタイムリーに検出します。モデル操作中に入出力データとコア データ操作を記録してシステムの意思決定をサポートし、問題発生時に検証するためにバックトラックします。

近年、アルゴリズム モデルを評価するためのツールや製品がいくつか登場しています。 2020年、瑞来智慧とアリババはそれぞれアルゴリズムモデル自体のセキュリティを検知するプラットフォームをリリースした。アルゴリズムモデルのセキュリティ評価を行うだけでなく、モデルに対する防御強化の提案も行っている。今年5月、マイクロソフトは社内AIセキュリティリスク評価ツール「Counterfit」をオープンソース化した。これはレッドチームの訓練、侵入テスト、脆弱性スキャンに使用でき、攻撃を受けた際に攻撃イベントを記録できる。

特定の人工知能ビジネスアプリケーションに関しては、ビジネスアプリケーションのセキュリティを確保するために、特定のアプリケーションシナリオに基づいたセキュリティメカニズムを開発することも必要です。

2. AIの応用と課題の分析

まとめると、ネットワーク攻撃と防御の分野では人工知能の応用研究が数多く行われており、その応用の可能性は非常に大きいと言えます。国内外では、自動化されたネットワーク攻撃と防御の可能性も積極的に模索されています。しかし、ネットワーク攻撃と防御の独特な属性と人工知能技術の特徴により、ネットワーク攻撃と防御の分野における人工知能の応用には一定の制限が生じています。

1. サイバー攻撃

サイバー攻撃に人工知能を適用する試みは数多く行われており、良い成果が得られています。しかし、人工知能の役割はまだ限られています。脆弱性マイニングに関しては、現在の関連する課題と競争のトピックでは、主にバイナリ プログラムの脆弱性マイニングが検討されています。自動化ツールは脆弱性の発見と悪用において強力な能力を発揮していますが、強力な論理分析機能を必要とする脆弱性は自動化ツールでは完全には発見できません。

また、人工知能モデルには高い計算能力、人的資源、その他のコストが必要であるため、現実には人工知能技術の手法を用いたサイバー攻撃は比較的少ないと言えます。現時点では、人工知能を利用した大規模なサイバー攻撃の実例はない。

2. ネットワーク防御

人工知能の応用により、ネットワークセキュリティ防御のレベルは大幅に向上しましたが、いくつかの問題もあります。ディープラーニングに代表される人工知能技術は特徴を自動抽出できるものの、データの不足や説明可能性などの問題に直面しています。データが増えれば増えるほど、AI モデルの精度が高まります。しかし、悪意のあるコードの検出やソフトウェアの脆弱性マイニングなどの分野では、依然として適切なデータセットが不足しており、人工知能手法に基づく検出率と精度は低くなっています。ディープラーニングなどの人工知能アルゴリズムは未知の脅威をより正確に識別できますが、多くの場合、結果しかわからず、理由がわかりません。アルゴリズム モデルには説明可能性が欠けており、脅威の原因を特定できません。

さらに、ネットワークセキュリティ分野における人工知能の応用は比較的特殊であり、誤報のコストが高いため、ネットワーク防御における人工知能の応用では、人工知能と人間の組み合わせが採用されることがほとんどです。 2020年のRSAカンファレンスで実施されたサイバーセキュリティ業界の専門家102人を対象とした調査では、回答者の約60%が、人間が検証したサイバーセキュリティの脅威は人工知能による自動処理よりも説得力があると考えていることが分かりました。

3. まとめと展望

人工知能には独自の価値と利点があります。攻撃者は人工知能を武器として使用し、悪意のある攻撃行動が自己学習し、ターゲットの防御システムの違いに基づいて「変化に適応」できるようにし、潜在的な脆弱性を見つけることで攻撃の目的を達成します。同時に、人工知能技術の使用により、ネットワーク セキュリティの現状を改善し、既知または未知の脅威をより迅速に識別してタイムリーに対応し、複雑なネットワーク攻撃に適切に対処できるようになります。現在、科学研究機関と業界は、人工知能技術の統合がネットワーク攻撃と防御における新たな標準になるという点でコンセンサスに達しています。ネットワーク攻撃と防御の分野における人工知能の応用はまだ初期段階にあります。人工知能は補助的な手段に過ぎず、真に自動化された攻撃と防御を実現するにはまだ長い道のりがあります。

<<:  北京大学光華管理学院 周連:人工知能は中間所得層にどのような影響を与えるのでしょうか?

>>:  国防総省は「数日前」に出来事を予測できる人工知能をテストしている

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

AI時代ではモデルは大きいほど良い

今年も4分の3が過ぎた。テクノロジー業界から見れば、「室温超伝導」が実現可能であることが公式に証明さ...

顔認識の悪用は情報セキュリティ上の懸念を引き起こす

食べ物を注文した後、カメラをかざすだけで支払いが完了します。ホテルに宿泊する場合、顔をスキャンしない...

...

モデルが 10 倍大きくなると、パフォーマンスは何倍向上しますか? Googleの研究者が調査を実施

ディープラーニング モデルが大きくなるにつれて、あらゆる種類のハイパーパラメータ調整を行うのは非常に...

IT 労働者の皆さん、AI があなたの仕事を「奪う」ためにやって来ています!今回はデータセンターからスタートします

[[349442]]人工知能に関する議論は現在、自動運転車、チャットボット、デジタルツイン、ロボット...

Java ソートアルゴリズムの概要 (V): マージソート

マージソートとは、2つ(またはそれ以上)の順序付きリストを新しい順序付きリストにマージすることです。...

膨大な顔情報が収集されている: 315 Galaが顔認識の混乱を暴露

3月15日、毎年恒例のCCTV Finance 3.15 Galaが開催されています。序文から判断す...

ワンクリックで動画をアニメーションに変換できるAIツールが人気。様々な格闘技の動きをスムーズに変換でき、無料でオンラインでプレイできます。

テキスト、画像、ビデオ、すべてをアニメーション化できます。見てください、ほんの少し前まで二人の男が格...

インテリジェントな排便・排尿ケアロボットが4400万人の障害を持つ高齢者の介護問題を解決

データによれば、わが国には60歳以上の高齢者が2億6,400万人以上おり、そのうち1億8,000万人...

機械学習の研究を再現するのは非常に難しい

[[223551]]はじめに:再現性と一貫性は計算科学研究の基本要件であり、機械学習も例外ではありま...

ビッグニュース: IBM が 3 つの抗がん AI プロジェクトをオープンソース化しました。

最近、IBM は、がん治療の課題を克服することを目的とした 3 つの AI プロジェクトをオープンソ...

スマートグリッドの重要性は何ですか?

スマートグリッドは私たちにとってどのような意義があるのでしょうか?実際のところ、私たちはスマートグリ...

15人の専門家が予測:AIは2024年にサイバーセキュリティのルールを変える

AI技術の飛躍的な発展に伴い、攻撃者はAIの武器化を加速させ、ソーシャルエンジニアリング技術と組み合...

機械が壁の建設を手伝うことがなぜそんなに難しいのでしょうか?これは人類の100年にわたる闘争の歴史である

[[418716]]建築の問題を研究すると、ほぼすべての「新しい」アイデアが、おそらく何十年も前に何...