AI が行き詰まった場合、サイバーセキュリティ業界は従来の方法、特に人間主導の方法に大きく依存し続けることになります。ただし、いつも通りの業務とはいきません。 前回のコラム「初心者のためのサイバーセキュリティ未来主義」で説明したように、私たちは未来研究、特にホライズンスキャンニングとシナリオプランニングの一般的な方法とアプローチを適用して、将来のシナリオを調査し、AI(LLMなど)が将来のセキュリティ運用にどのような影響を与えるかを理解しています。 もう一度簡単に述べますが、ホライズンスキャンニングは厳密には未来を予測することではありません。むしろ、新たなトレンドの原動力を特定できるほど、弱いシグナルを早期に検出することが重要です。私たちは単一の予想される未来を特定しようとしているわけではありません。代わりに、私たちは可能性のある未来の範囲(4 つの未来モデル)を説明します。計画者はこれらの将来を使用して、リスク評価、戦略計画、または同様のタスクに役立つシナリオをさらに開発できます。 AIの未来#1: 行き止まりのAIハイプマンの仕事は、全員を席から立たせてダンスフロアで楽しませることです。 フレーバー フレーバー今週、私たちは「デッドエンド AI」と呼ぶ、AI が周囲の誇大宣伝に応えられない未来を思い描きました。私たちはこの将来について2つの可能性のあるシナリオを検討しました。どちらも短期および中期の結果は似ているため、一緒に議論することができます。 シナリオ 1: AI により、暗号通貨、NFT、メタバースなどの新たな誇大宣伝が終焉を迎えます。 シナリオ 2: AI が過大評価され、その結果生じた失望により資金が撤回され、新たな AI の冬が訪れる。 AI の将来が行き詰まる中、AI をめぐる現在の誇大宣伝は、結局は根拠のないものであることが判明します。テクノロジーの限界が現実のものとなり、AIに対する熱意と投資は衰退した。 AIコミュニティは幻滅を経験し、資金と研究の大幅な減少を伴う新たなAIの冬が訪れました。 未来的であるということは、例えば、機械学習にまったく有益な用途がない、あるいは人工知能が理論的に実現不可能であるという意味ではないことに注意してください。これは、さまざまな制限や制約により、現在の AI の進歩の波が、技術的特異点とも呼ばれる成熟した汎用人工知能 (AGI) へと徐々に移行しないことを意味します。 分析するAI を行き詰まらせる可能性のある主な外部要因について説明します。可能な場合は、強い信号と弱い信号の両方を引用します。おそらく、多くの要素がいかに密接に絡み合っているかに気づくでしょう。また、シリーズ全体を通して、いくつかの要素がわずかに異なる文脈で再び現れることもわかるでしょう。 未来の行き止まりのAI信号をサポートする以下では、AI が終焉に向かっていることを示唆する兆候と傾向のいくつかを検証します。 経済的要因 投資家は生成 AI に殺到しており、初期段階のスタートアップ投資家は 2022 年に 22 億ドルを投資しています (欧州全体では 58 億ドル)。 しかし、AI が期待される投資収益率をもたらさない場合、AI 研究開発へのさらなる資金提供は悲惨な結果をもたらすでしょう。 たとえば、ベンチャーキャピタル企業の Andreessen-Horowitz (a16z) は、大規模な言語モデルを使用する典型的なスタートアップ企業が資本の 80% をコンピューティング コストに費やしていることを示すレポートを公開しました。報告書の著者らはまた、ハードウェアの想定に応じて、GPT-3 トレーニングの実行 1 回あたりのコストが 50 万ドルから 460 万ドルになると指摘しています。 逆説的に、こうしたムーンショットに投資された資金は必ずしも経済的な成功や実現可能性を保証するものではなく、最近リークされた Google のレポートでは、こうしたモデルの広範なオープンソース採用を阻止する防壁は存在しないと主張しています。 Snapchat のような他の企業は、製品をあまりにも早く発売し、市場に急いで参入したため、惨めに失敗しました。 このような高額な開発コストと、収益性の高いアプリケーションの不足は、投資家や株主を満足させることにはなりません。また、大規模な資本破壊も発生し、満足したのは少数のクラウドおよびハードウェアベンダーのみでした。 一方、多くのビジネスリーダーが AI の積極的な導入を声高に訴えており、中国の BlueFocus Intelligent Communications Group は外部のコピーライターと編集者を生成型 AI に完全に置き換える計画を立てており、IBM は定型業務の最大 50% が自動化できると見積もっています。これらの仮定が間違っていることが判明した場合、多くの企業が窮地に陥り、痛みを伴う調整に直面することになるだろう。 批評家の中には、生成的芸術作品の著作権など、まだ定量化されていない大きなリスクがあるとして、注意を促している者もいる。 AI 経済の構築に関する実際の経験もまちまちです。 FiverrやUpworkなどのフリーランスサービスの顧客は、生成モデルを使用して作成された明らかに低品質な作品が急増していると報告している。 最後に、つい最近暗号通貨、NFT、メタバースを販売した同じ企業による、また新たな革命的な技術革新に関して、かなりの懐疑心と当然の疲労感があります。 実用化の進展は限定的 狭義の AI の応用においては大きな進歩が遂げられていますが、何らかの理由で突然出現するかもしれないという根拠のない主張があるにもかかわらず、真の汎用人工知能 (AGI) に向けた進歩はまだ見られません。生成 AI モデルは不思議な現象を示しますが、その限界も含めて完全に説明可能です。 AI がマーケティングから開発、設計まであらゆるものを自動化できるという記事が溢れる中、そのようなモデルの適用分野は非常に狭い可能性があるという証拠も増えています。実際のシナリオでの自動化では、フィッシング攻撃をブロックする場合など、高度な正確性と精度が求められますが、LLM はそのような用途には設計されていません。 一部の技術専門家は、現在のモデルが実際に行っていることと、その説明方法、そしてさらに重要なことに、販売方法との間に大きなギャップがあることに懸念を表明し、新たな AI の冬について警鐘を鳴らしている。 人工知能は理論的には大きな可能性を秘めています。しかし、実際のアプリケーションは、実現可能性の問題、明確なユースケースの欠如、またはソリューションを効果的に拡張できないことなどにより、期待どおりに機能しない可能性があります。 プライバシーと倫理的問題 もう一つの増大する兆候は、プライバシー、倫理、AI システムの潜在的な悪用に関する懸念の高まりです。驚くべきことに、より厳しい規制を主張する声が多くありますが、これは AI の開発と導入を妨げ、AI の行き詰まりにつながる可能性があります。 人工ニューラルネットワークの先駆者の一人であるジェフリー・ヒントン氏は、利益相反なく、制御されていないAIのリスクと危険性について世界に警告するために、最近Googleを辞めた。ホワイトハウスは、人工知能の将来について議論するため、グーグル、マイクロソフト、OpenAI、アントロピックの幹部との会議を招集した。最大の驚きは、CEOが規制を求め、OpenAIのサム・アルトマン氏が米国議会にそうするよう促したことだろう。ある記事では、そのような技術を管理する人々の信念を評価する必要があるとさえ主張しており、彼らは存在するリスクをより受け入れる用意があるかもしれないと示唆している。 私たちのシナリオにおける悲劇は、AI をめぐる誇張が、実際には AI の潜在的な誤用が及ぼす倫理的および社会的影響についての結論につながり、AI の発展を抑制する厳しい規制につながる可能性があることです。プライバシーへの懸念、失業、ディープフェイク技術などの問題は、たとえその技術の影響が実際には最小限であったり、繰り返し発生したりしたとしても、反発を引き起こし、政府に厳しい規制を課すよう促す可能性がある。 AI システムが信頼できないとみなされれば、注目を集める失敗や意思決定における偏見が現実のものか想像上のものかに関わらず、世間の認識は AI に反するものとなる可能性が高い。 環境への影響 AI の可能性は自動化だけに基づくものではありません。手頃な価格で、すぐに利用可能で、ますます持続可能でなければなりません。 AIは技術的には実現可能かもしれませんが、経済的ではない、あるいは環境に有害である可能性もあります。 入手可能な豊富なデータは、LLM のような AI テクノロジーが環境にかなりの影響を及ぼすことを示唆しています。最近の研究「AI の水をあまり消費しない: AI モデルの隠れたウォーター フットプリントの発見と対処」では、20 ~ 50 の質問からなる典型的な会話で 500 ミリリットルの水が消費され、GPT-3 のトレーニングだけで最大 70 万リットルの水が必要になる可能性があると計算されています。 スタンフォード大学人間中心のAI研究所(HAI)の2023年AIインデックスレポートでは、GPT3の1回のトレーニング実行で502トンのCO2に相当する炭素が排出され、最もエネルギー効率の高いモデルであるBLOOMでさえ、平均的なアメリカ人が1年間に使用する炭素よりも多くの炭素を排出すると結論付けられています(BLOOMの場合は25トン、人間の場合は18トン)。 LLM 時代はまだ始まったばかりであり、効率性の向上は間違いなくあるでしょうが、その向上は相当なものでなければなりません。新しいモデルはさらに大型化することが予想されており、歴史的に前例のない規模での導入はまだ始まったばかりです。ハイパーオートメーションとオンデマンド仮想アシスタントの実現には、エネルギー消費が持続不可能なほどに増加することになります。問題は、エネルギー集約型の AI モデルが低炭素経済でどのように繁栄するかということです。 セキュリティ運用への影響現在の AI テクノロジーの波が過大評価され、行き止まりであることが判明した場合、セキュリティ運用への影響は次のようになる可能性があります。 伝統的な方法が再び脚光を浴びるでしょう。 AI がインテリジェントな自動化と分析の約束を果たせないため、サイバーセキュリティの運用は引き続き人間主導のプロセスと従来のセキュリティ対策に依存することになります。 つまり、セキュリティ専門家は、ゼロトラストやサイバーハイジーンなどの既存の技術を継続的に改良する必要があるということです。また、進化する脅威の状況に対応するために、最新の検出情報、プレイブック、脅威インテリジェンスを継続的に作成し、管理し続ける必要があります。 セキュリティ運用管理機能、特に異機種インフラストラクチャ全体にわたる検出や対応などのワークフローのオーケストレーションは、適切に実行するのが依然として困難でコストがかかります。 特に中規模組織では、結果として生じるスキルと人員のギャップを埋めるために、より多くのサービスに頼る必要があります。特に自動化と分析に専門知識とスキルが必要な場合、新しいサービス提供とモデルが開発されます。 明るい面としては、少なくとも脅威の状況は人間のペースでしか進化しないということです。 自動化は横ばいになるでしょう。 よりインテリジェントな機械自動化がなければ、組織はサイバーセキュリティ分野における人材不足に悩まされ続けるでしょう。アナリストにとって、手作業の作業負荷は依然として高いままです。組織は業務を効率化するための他の方法を見つける必要があります。 SOAR のような自動化アプローチは、依然として非常に手動で行われ、静的で事前構成されたプレイブックに基づいています。ノーコードおよびローコードの自動化は、自動化をより簡単に、よりアクセスしやすくするのに役立ちますが、自動化は依然としてスクリプト化され、本質的には単純なものになります。 ただし、今日の LLM 機能レベルでも、基本的なログ解析、イベント変換、および一部の分類ユースケースを自動化するには十分です。 2024 年末までに、これらの機能はほぼすべてのセキュリティ ソリューションに普及するでしょう。 脅威の検出と対応は依然として遅い AI を活用したソリューションがなければ、脅威の検出と対応時間はわずかにしか改善されません。ハッカーが脆弱性を悪用して損害を与える機会を減らすことは、運用の効率性を高めることを意味します。組織は、検出と対応の遅延の影響を最小限に抑えるために、既存のシステムとプロセスを強化することに重点を置く必要があります。自動化はより選択的になりますが、より積極的に統合されます。 脅威インテリジェンスの管理は今後も困難が続くでしょう。 AI を活用した分析が不足しているため、ベンダーは脅威インテリジェンスの収集と管理に引き続き苦労し、脅威インテリジェンスをより戦略的に使用することは、ほとんどのエンドユーザーにとって依然として困難なままです。セキュリティ チームは、脅威情報を収集、分析、コンテキスト化するために手動のプロセスに頼る必要があり、新しい脅威や進化する脅威に対する認識と対応が遅れる可能性があります。大量の脅威インテリジェンスを配信および分析する能力は、視覚化やグラフ分析などのより簡単な方法を使用して強化する必要があります。集団的かつ協調的な情報共有についても再検討し、修正する必要があります。 人間の専門知識を改めて重視する AI が期待に応えられなかった場合、サイバーセキュリティ運用における人間の専門知識の重要性はさらに高まります。組織は、資産を保護し、リスクを最小限に抑えるために、熟練したサイバーセキュリティ専門家の採用、トレーニング、維持を優先し続ける必要があります。セキュリティ専門家の獲得競争は今後も熾烈になるだろう。希少なチームの専門知識をより適切に把握して維持し、知識管理を改善し、チームやドメイン間でより効果的に連携するために、新しい方法とフレームワークを開発する必要があります。 結論はAI が行き詰まった場合、サイバーセキュリティ業界は従来の方法、特に人間主導の方法に大きく依存し続けることになります。ただし、いつも通りの業務とはいきません。 私たちが耳にした、それほど印象的ではないユースケースの中にも、難しい課題を解決したものがあります。人間の言語クエリを SQL 構文に瞬時に翻訳したり、経験豊富な開発者のコーディングを高速化したり、ネットワーク イベントをトリアージしたりするなど、LLM の影響はすでに感じられています。それは、防御側も攻撃側も同じようにすべての船を持ち上げる波です。 しかし、より重要なのは、進歩が継続するかどうかです。技術的な制限や制約に加えて、他のさまざまな要因や傾向が、私たちが新たな AI の冬を経験するかどうかに影響を与えるでしょう。社会不安から自律型キルボットに至るまで、AIがもたらすリスクを認識するだけで、さらなる進歩を阻む規制強化を引き起こすのに十分である可能性がある。あまりに早い段階で、あまりに高い期待を抱くと、AI の冬の到来を告げるほどの失望と幻滅を招く可能性もあります。 誇大宣伝によって引き起こされる被害は、単に迷惑なだけではありません。 FOMOを引き起こし、経済的損失につながる可能性があります。また、他の有望な技術を早期に消滅させてしまう可能性もあります。 確率: 0.25 ありそうにない AI とサイバーセキュリティ運用の将来を考えるとき、未知数な点が数多くありますが、AI と生成 AI を取り巻く現在の誇大宣伝には、少なくとも何らかの事実に基づくものがあると私は信じています。 生成型人工知能に楽観的な知識人も多くいますが、他の人工知能手法が依然として主流です。すでにいくつかの場所ではメリットが現れています。これが真のブレークスルーであることを示唆する十分な兆しがあります。しかし、私はそれを革命ではなく進化として見ています。 Grammarly、AI ライティング アシスタント、ほとんどのプログラミング IDE、あるいは単に携帯電話を使ってメッセージを送信しているのであれば、このゆっくりとした進化の傾向を経験したことがあるはずです。違いは、初めて本番環境に対応できるということです。今、私たちは本当に興味深いものを作り始めることができ、より速い馬を作ろうとするのをやめたら何が起こるかを見ることができます。ヘンリー・フォードが顧客に尋ねたらどうするかと冗談を言ったように。 それでも、誇大宣伝の感覚は間違っていません。善意はあるがあまり専門的ではない解説者が職務上必要なことをやっているだけ、またかなりの数の不正行為者、そしてどんなに推測的で証明されていなくてもあらゆる主張に固執する必死の企業や投資家も少なくない。 したがって、私の推測では、これら 2 つの未来、つまり生成 AI をめぐる誇大宣伝に実質的な根拠がない、またはその誇大宣伝が新たな AI の冬をもたらす、という未来は、起こりそうにありません。 オリバー・ロッチフォード |
<<: テクノロジーはサプライチェーンの未来をどう変えるのか
>>: マスク氏はテスラの完全自動運転が今年中に利用可能になると予測するが、AIの大きな変化を懸念している
私たちの子供たちが今後20年、30年でどのような仕事に就くことになるのかを予測するのは本当に難しいこ...
皆さん、GPT-4 のパラメータは 1 兆を超える可能性があります。最近、アメリカの有名なハッカーで...
[[117973]] 1. ページランクPageRank は、世界で最も人気のある検索エンジンである...
機械学習モデルは、これまで以上に実稼働環境で広く使用されるようになりました。 Keras は、強力な...
これは非常に興味深いスピーチです。これは、MWC 2017でソフトバンクの孫正義氏が行ったスピーチで...
デジタル化とインテリジェンスの融合によってもたらされた競争の時代において、企業はサイクルを安全に乗り...
テクノロジーが進歩するにつれ、それが従来の人間の仕事をどのように変えたり、置き換えたりするのかという...
AI エージェントは現在、学界で注目の話題であり、多くの専門家によって大規模モデルの開発における次の...
テスラロボットが家事を始める。マスク氏は最新の動画で、テスラのロボット「オプティマス・プライム」が服...
マイクロソフトはOpenAI LPの半分以下を所有していると言われているが、それでもパワーは劣るがよ...
アルゴリズムはビッグデータの最も価値のある部分です。ビッグデータマイニングとは、大量、不完全、ノイズ...
広州市のある商業銀行は最近、顔認証引き出し機能を備えたATMを導入し、利用者が銀行カードを持っていな...
昨年末、Google Geminiが業界に衝撃を与えた。これはGoogleの「最大、最も有能、最も多...