シャドーAIの潜在的な脅威に対処するための4つのヒント

シャドーAIの潜在的な脅威に対処するための4つのヒント

AI ツールの導入はほとんどの組織がセキュリティを確保できるよりも速いペースで進んでいるため、シャドー AI に関連する課題は改善される前に悪化する可能性があります。


調査によると、ほぼ半数(49%)の人が生成型 AI を使用したことがあり、3 分の 1 以上が日常的に使用しています。生成 AI には多くの利点と使用例があることは否定できませんが、IT ガバナンスの対象外の組織内でこれらのツールを違法または無許可で使用すると (シャドー AI と呼ばれる)、重大なリスクにつながる可能性があります。

過去 1 年間、Amazon などのテクノロジー大手が ChatGPT やその他の AI ツールを活用してビジネス上の利益を得る機会を捉えてきました。しかし、他の企業はそれらの使用を禁止している。昨年、サムスンは偶発的なデータ漏洩が発生した後、従業員によるChatGPTやGoogleBardなどのツールの使用を禁止した。ゴールドマン・サックスやシティグループを含む多くの銀行も、機密情報の共有に対する懸念から人工知能の使用を制限している。

著名な組織がこのように反応しているのは、シャドー AI が未知の脅威をもたらし、シャドー IT 脅威のより広範なカテゴリ内でセキュリティとコンプライアンスに対する新たな脅威ベクトルを提供するためです。

成功したサイバー攻撃の 3 分の 1 はシャドー IT から発生していると推定されています。それでも、シャドー IT の脅威はよく知られており、一度特定されれば比較的簡単に管理できます。それを廃止して次に進みましょう。一方、シャドー AI は、定量化や管理が難しい未知のリスクをさらに増大させます。これらのツールの無許可使用だけの問題ではありません。また、許可されていない、現在規制されていない領域での企業データの承認されていない使用も含まれます。さらに、これらの AI ツールの使用または潜在的な使用は技術者に限定されません。

これらの要因と、より短時間でより多くの成果を達成できるという期待が相まって、より多くの人が企業データを不正なツールに入力するようになり、機密情報や知的財産が危険にさらされることになります。

シャドー AI とは何ですか? シャドー AI は、正式なレビューや承認なしに組織内で独自に開発または採用される AI テクノロジーとシステムを指す比較的新しい概念です。この現象は、企業、政府機関、さらには小規模なチームなど、あらゆる規模の組織で発生する可能性があります。シャドー AI は、チームや個人が正式な承認プロセスを回避してプロジェクトを迅速に進めたり、特定の問題を解決したりしようとすることから発生することがよくありますが、そうすることで多くのリスクと課題が生じる可能性があります。

シャドーAIのリスク

データ セキュリティとプライバシー: 検証されていない AI システムは、組織のデータ保護ポリシーに従わずに機密データや保護されたデータを処理する可能性があり、データ漏洩や誤用のリスクが高まります。

互換性と統合の問題: 独自に開発された AI ソリューションは、組織の既存の IT アーキテクチャやシステムと互換性がない可能性があり、統合の問題や非効率性につながります。

品質と信頼性の問題: シャドー AI プロジェクトは十分にテストおよび検証されていない可能性があり、そのパフォーマンスと信頼性は保証されないため、誤った決定や潜在的なビジネス損失につながる可能性があります。

リソースの分散: 承認されていないプロジェクトは、正式に承認されたプロジェクトをサポートするために使用できる時間、資金、人員などの限られたリソースを消費する可能性があります。

法的およびコンプライアンス上のリスク: 検証されていない AI テクノロジーを使用すると、業界固有の法律や規制に違反する可能性があり、組織は法的措置や罰金のリスクにさらされます。

シャドーAIに対処するための戦略

正式な AI ガバナンス フレームワークを確立する: すべての AI プロジェクトが組織のポリシー、標準、プロセスに準拠していることを確認します。

透明性の向上: 正式に承認されているか、探索段階にあるかにかかわらず、チームが AI プロジェクトを報告して共有することを奨励します。

教育とトレーニング: データ保護、AI 倫理、コンプライアンスについて従業員をトレーニングします。

リソースとサポートを提供する: AI ソリューションを検討したいチームに必要なリソースとガイダンスを提供し、独自にシャドー AI を導入する動機を減らします。

リスク評価プロセスを実装する: 新しく導入されたすべての AI システムとテクノロジーが適切なリスク評価を受け、潜在的なセキュリティとコンプライアンスのリスクを特定して軽減されるようにします。

これらの戦略を通じて、組織はシャドー AI がもたらすリスクを軽減しながら、技術革新と進歩を促進することができます。

シャドーAIの潜在的な脅威に対処するための4つのヒント

データアクティビティを管理および監視する従来のアプローチは、データ環境を保護し、許可されたデータの使用を確保し、プライバシー要件を満たすために重要ですが、データセンターの外部のシャドー AI から防御するには不十分です。また、すべての AI の使用が全面的に禁止されているわけでもなく、多くの従業員が AI をひそかに自分たちの利益のために使用する方法を見つけ続けるでしょう。

幸いなことに、IT リーダーがこれらの潜在的な脅威を軽減するために実行できる追加の手順がいくつかあります。これらには以下が含まれます:

AI の未承認使用のリスクについて従業員を教育し、シャドー AI 侵害のほとんどが悪意によるものではないことを覚えておくことが重要です。同僚、友人、家族から、ChatGPT のような人気のプラットフォームが面倒な作業の軽減やアートや音楽の作成に役立つことを聞いた従業員は、そのプラットフォームを試して、どのようなメリットが得られるかを確認したいと考えることがよくあります。したがって、重要な最初のステップは従業員を教育することです。

シャドー AI がもたらす脅威と影響について詳しく見てみましょう。まず、機密情報や独自の情報をブラックボックス AI に取り込む可能性があります。第二に、企業における AI の使用に関する総合的な理解が欠如しているため、AI の障害の影響が不明になります。従業員に対してこのレベルの透明性を確立することは、リスクが現実のものであることを示すのに役立ちます。

AI ポリシーとプロセスを更新する: すべての AI の使用を全面的に禁止することは、多くの企業、特に機械学習や大規模な言語拡張を日常的に使用している企業にとって合理的な方法ではありません。しかし、IT リーダーはポリシーを更新して、特定の AI 制限とビジネス ニーズの承認を得る方法に関するガイダンスを含めることができます。正当なユースケースに承認されたパスを提供するために、組織は AI の使用状況を確認するプロセスを実装できます。そのプロセスでは、企業がユースケースを確認し、リスクを評価し、承認または拒否することができます。

エンドポイント セキュリティ ツールを導入する: 実際には、AI 教育と更新されたポリシーだけでは、すべてのユーザーがシャドー AI テクノロジーやサービスを試すのを防ぐことはできません。したがって、組織は自らをさらに保護するために、すべての AI の使用状況の可視性を高め、ユーザー レベルでの外部リスクを軽減する追加のツールを導入する必要があります。エンドポイントは、ユーザーがシャドー AI をまだ使用しているかどうか、またどのように使用しているかを制御または把握するための最も効果的な場所になります。したがって、多くの場合、エンドポイント セキュリティ ツールを導入することが、リモート ユーザーとクラウドベースの AI プラットフォームに対する最大のリスクに対処するソリューションとなります。これは、クラウド アクセス セキュリティ ブローカー (CASB) などのテクノロジーや、エンドポイントやリモート ワーカーの問題に対処するその他のテクノロジーの形で実現できます。

AI ベンダーとエンドユーザー契約を締結する: エンドユーザー ライセンス契約 (EULA) は、IT の世界では珍しいことではありません。これらの契約はソフトウェア ライセンス契約とも呼ばれ、エンド ユーザーとソフトウェア ベンダーの間で締結されます。これらのプロトコルは、ソフトウェア レベルで実装されると、ユーザーが特定のソフトウェアまたはアプリケーションをどのように使用できるかに関するパラメータを設定します。この契約にはソフトウェアの使用に関する制限も含まれています。たとえば、EULA では、ベンダーではなくユーザー自身の利益になるような方法でソフトウェアを配布または共有することを制限します。 AI の観点から見ると、同様のプロトコルを実装すると、AI モデルやプラットフォームにどのようなデータが取り込まれるかを制御する上で有益となる可能性があります。これらのモデルを活用する際に従業員が使用できるデータの種類と使用できないデータの種類を明確に規定した正式な契約は、明確な境界とガイドラインを設定するのに役立ちます。また、AI ベンダー自身とのコミュニケーションも開かれ、プロセスの共同作業と透明性が高まります。

将来に向けて

残念ながら、ほとんどの組織が AI ツールをセキュリティで保護できるよりも速いペースで実装されているため、シャドー AI に関連する課題は改善される前に悪化する可能性があります。さらに、組織が適切な戦略を実装し、AI モデルでデータが正しく安全に利用されるようにするために必要なトレーニングを展開するには、時間がかかる可能性があります。しかし、これらのリスクに対処するために、さらに多くの企業やソリューションが登場することが予想されます。

テクノロジー業界は、データがどこに送られ、誰がそれを受け取り、どのように使用されるかについて組織が明確に理解できないほどの規模の状況に直面したことはありませんでした。すべてのシャドー IT 問題を解決するために、問題のあるシステムをすぐに廃止する時代は終わりました。結局のところ、シャドー AI の影響は甚大であり、組織は手遅れになる前に、さらなる無許可の AI の使用を防ぐために今すぐ行動する必要があります。

<<: 

>>:  OpenAI憲章中国語版

ブログ    
ブログ    
ブログ    

推薦する

データセンター: ジェネレーティブ AI 経済の推進

しかし、こうした大騒ぎのなか、生成 AI の可能性を最大限に引き出すために必要なインフラストラクチャ...

デジタルヒューマンがアジア競技大会の聖火を灯す:ICCV 論文から見る Ant の生成 AI テクノロジーの新たな一面

9月23日夜、杭州アジア競技大会の開会式でメイントーチに火が灯されると、数億人のオンラインデジタル聖...

汎用人工知能は可能か?

人工知能という用語が最初に使われたのは、より正確には「狭義の AI」と呼ぶべきものでした。これは強力...

わずか6ステップで機械学習アルゴリズムをゼロから実装

機械学習アルゴリズムをゼロから作成することで、多くの経験が得られます。ようやく読み終えたとき、嬉しい...

...

人工知能の未来は人類にとって何を意味するのでしょうか?

人工知能(AI)について多くの人が最初に尋ねる質問は、「それは良いものか、悪いものか?」です。答えは...

...

...

ブロックチェーン + AI、完璧な組み合わせですね?

「この二つの技は同じ名前だが、技の内容は大きく異なる。一つは全真剣術の強力な技で、もう一つは玉女剣...

未来 | 人工知能が人間社会を変える24の方法

今こそ、AI の将来を本当に理解するときです。 AI を取り巻く不安は雇用の減少など多岐にわたります...

人工知能は本当に人間の仕事を置き換えるのでしょうか?

今年に入ってから、新型コロナウイルス感染症の継続的な感染拡大により世界的に景気が低迷し、多くの国や地...

8x7B オープンソース MoE が Llama 2 に勝ち、GPT-4 に迫る!欧州版OpenAIがAI界に衝撃を与え、22人の企業が半年で20億ドルの評価額を獲得

オープンソースの奇跡が再び起こりました。Mistral AI が初のオープンソース MoE 大規模モ...

ジェフリー・ヒントンの最新インタビュー: 5年以内に脳の仕組みを解明できるだろうが、それはバックプロパゲーションによるものではない

過去10年間で、AIはコンピュータービジョン、音声認識、機械翻訳、ロボット工学、医学、計算生物学、タ...

2020 年の機械学習の 5 つのトレンド

[[318500]] [51CTO.com クイック翻訳]機械学習は、多くの人にとって新しい用語かも...

仮想通貨取引ロボットが手動取引に取って代わり、システム開発が進む

定量取引は高頻度取引の一種です。毎日無数の取引ペアが生成されます。手動で行う場合、多くの市場機会が不...