多くのセキュリティ業界の専門家は、過去 10 年間に登場した新しいテクノロジーを振り返り、将来のテクノロジーに期待を寄せています。人工知能(AI)は、過去10年間で日常用語に浸透してきた流行語です。医療から銀行、セキュリティに至るまで、あらゆる業界で何らかの形で AI が実装されていますが、AI は、紛争、不平等、人間の苦しみをなくし、私たちの生活様式に革命をもたらす画期的なツールとサービスをもたらす最後の発明としても宣伝されてきました。しかし、AI テクノロジーはまだ初期段階にあり、多くのサイバーセキュリティの専門家が主張するような万能薬ではありません。
AIが現実よりも誇大宣伝である理由 現在、人工知能は新興技術であり、機械学習アルゴリズムによって使用される決定の背後にある理論的根拠を理解することが依然として難しいため、実際の応用には限界があります。この理解の限界のため、これらの技術は正確な機能にのみ使用されます。たとえば、AI はマルウェアなどの特定の脅威についてデータを分析するように設計できますが、人工知能技術は優れたデータ分析に過ぎず、AI 技術によってもたらされる新たな脅威を特定することはできません。そのため、AIが脅威を検知したとしても、リスクの実態を人間が確認する必要があるのです。 今日のセキュリティ環境における人工知能の価値 人工知能は間違いなく、今日のセキュリティ環境において重要な役割を果たしています。政府機関や軍隊は AI を使って何百時間もの通話データを精査し、テロ活動や犯罪行為を特定しようとしています。現状では、AI は大量のデータを調べ、反復的なタスクを自動化することができます。これらのサービスの結果は追加のデータ ポイントとして役立ちますが、現時点では、組織の最終的な意思決定を AI に完全に依存するのではなく、AI をサポート技術として使用する方が理にかなっています。 さらに、AI をアクセス管理に活用して、個人の習慣を監視し、標準から逸脱した行動を特定することもできます。たとえば、ユーザーが通常の営業時間外にシステムにログインした場合、AI はこの異常を識別し、ステップバイステップの認証を利用して、ユーザーにアクセスを許可する必要があるかどうかをさらに検証できます。しかし、AI は現時点では人間が本来持っている直感を教えたりプログラムしたりすることはできないため、重要な決定を下すためにアルゴリズムを信頼すべきではありません。 人工知能の急速な成長 今後 10 年間で、AI は初期段階から、企業が資産と従業員の安全を守るために使用できる、より有用で強力なツールへと進化し続けるでしょう。人工知能は必然的に成熟段階に達し、その時点で真に自立して考え、学習できるようになります。コンピューティング能力は過去 10 年間で飛躍的に向上しており、今後 10 年間も向上し続けるでしょう。計算能力の向上により、特に人間が AI のアルゴリズムを改良し、改善するにつれて、AI の利用には無限の可能性が開かれました。 現在、人工知能は今日のセキュリティ業界で一定の地位を占めており、脅威の特定と社会の安全の向上に優れていることが証明されています。これは役に立ちますが、脅威を評価する上で人間は依然として重要な要素です。この記事はスーパー人工知能の潜在的な危険性を強調していますが、AIの未来は明るく、食糧、病気、エネルギー問題などを解決するための新しい技術など、AIが人類にもたらす可能性のある莫大な利益を無視すべきではないと私は信じています。しかし、AI システムが強力になるほど、また割り当てられるタスクが複雑になるほど、選択の自由度が増すことに留意する必要があります。 |
熱狂が冷め、合理性が戻った後、自動運転業界は再び混乱に陥っています。過去1年間、資金調達、量産計画、...
[[427801]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
人工知能 (AI) は、自然科学のさまざまな分野を網羅しており、主に特定の種類の知的な人間の活動をモ...
[[409661]]画像はBaotu.comより顔認識は、多くのソフトウェアの ID セキュリティ...
人工知能などのハイテク手段を基盤として構築された都市脳は、都市の経済発展のための「ブラックテクノロジ...
私の国の量子コンピューティングは新たな進歩をもたらしました。 USTC公式ウェブサイトからのニュース...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能といえば、映画「アイアンマン」に登場する賢い執事ジャービスを思い浮かべる人もいるかもしれませ...
ルーマニア人はダンスが大好きな国民です。古いルーマニア映画「チプリアン・ボロンベスク」をご覧になった...