ChatGPT のリリースに続く生成 AI モデルの急速な導入により、企業がビジネスを遂行し、顧客やサプライヤーとやり取りする方法が根本的に変化すると予想されます。 生成 AI は、マーケティング コンテンツの作成、顧客サービスの向上、ソフトウェア アプリケーションのソース コードの生成、ビジネス レポートの作成など、幅広いビジネス ニーズをサポートできます。生成 AI ツールには、コストの削減、作業のスピードと品質の向上など、数多くの利点があるため、企業や個人が仕事でこれらのツールの機能をテストするようになります。 ただし、他の新しいテクノロジーと同様に、急速な導入はリスクを伴い、脅威アクターが組織の脆弱性を悪用する余地を与える可能性があります。今日の複雑な IT 脅威環境では、生成 AI ツールを慎重に検討せずに使用すると、企業に壊滅的な結果をもたらす可能性があります。 企業環境で生成AIを使用することに伴うセキュリティリスク 企業環境で生成 AI を使用する際の潜在的なリスクを理解することは、規制遵守を維持し、セキュリティ侵害を回避しながらテクノロジーのメリットを享受するために重要です。生成 AI の導入を計画するときは、次のリスクに留意してください。 1. 従業員が機密性の高い業務情報を漏洩する企業環境では、ユーザーは ChatGPT やその他の AI チャットボットを含む他のユーザーと共有するデータについて注意する必要があります。 最も最近注目を集めた事件は、サムスンの従業員がChatGPTと機密情報を共有したことによるデータ侵害だった。サムスンのエンジニアは、会議の議事録を作成したり、仕事に関する機密情報を含むビジネスレポートを編集したりするためにこのサービスを利用しただけでなく、機密ソースコードをChatGPTモデルにアップロードしました。 サムスンの事件は、AIチャットボットに機密情報が漏洩した多くの有名な例の1つにすぎません。生成 AI ツールを使用している他の多くの企業や従業員も、内部コード、著作権で保護された資料、企業秘密、個人を特定できる情報 (PII)、機密ビジネス情報などの機密性の高い業務情報を漏洩するという同様のミスを犯す可能性があります。 OpenAI の ChatGPT に関する標準ポリシーでは、ユーザーがチャット履歴をオフにした場合でも、不正使用の可能性を監視するためにユーザーの記録を 30 日間保持します。 ChatGPT をビジネス プロセスに統合している企業の場合、従業員の ChatGPT アカウントに機密情報が含まれている可能性があります。したがって、従業員の ChatGPT アカウントを侵害した脅威アクターは、そのユーザーのクエリや AI 応答に含まれる機密データにアクセスできる可能性があります。 2. AIツールのセキュリティ上の脆弱性他のソフトウェアと同様に、生成 AI ツール自体にも脆弱性があり、企業をサイバー脅威にさらす可能性があります。 たとえば、3月にOpenAIは、一部のユーザーが他のアクティブユーザーのチャット履歴からチャットタイトルを見ることができるチャットボットのオープンソースライブラリのバグを修正するためにChatGPTをオフラインにしました。両方のユーザーが同時にアクティブな場合、新しく作成された会話の最初のメッセージは、相手のチャット履歴にも表示されます。 さらに、同じ脆弱性により、特定の期間にアクティブだった ChatGPTPlus ユーザーの 1.2% の支払い関連情報 (顧客の名前、電子メール アドレス、クレジットカード番号の下 4 桁など) が漏洩しました。 3. データ汚染と盗難生成 AI ツールが適切に機能するには、大量のデータを入力する必要があります。このトレーニング データはさまざまなソースから取得されますが、その多くはインターネット上で公開されており、場合によっては企業と顧客との過去のやり取りが含まれることもあります。 データ ポイズニング攻撃では、脅威アクターは AI モデル開発の事前トレーニング段階を操作する可能性があります。攻撃者は、トレーニング データセットに悪意のある情報を挿入することで、モデルの予測動作に影響を与え、誤った応答や有害な応答を引き起こす可能性があります。 データに関連するもう 1 つのリスクは、脅威アクターが生成 AI モデルのトレーニングに使用されるデータセットを盗むことです。適切なデータ アクセスの暗号化と制御がなければ、モデル トレーニング データに含まれる機密情報が、データセットを入手した攻撃者に公開される可能性があります。 4. コンプライアンス義務違反企業環境で AI 駆動型チャットボットを使用する場合、IT リーダーは関連する規制違反に関連する次のリスクを評価する必要があります。 誤った回答AI ツールは、間違った回答や表面的な回答を返すことがあります。顧客に誤解を招くような情報を提供すると、企業の評判に悪影響を与えるだけでなく、法的責任を問われる可能性もあります。 データ侵害従業員は、AI チャットボットとの会話中に、顧客の個人情報や保護対象健康情報 (PHI) などの機密性の高い業務情報を共有できます。その結果、GDPR、PCI DSS、HIPAA などの規制基準に違反し、罰金や法的措置のリスクにさらされる可能性があります。 バイアスAI モデルの応答は、人種、性別、その他の保護された特性に基づく偏見を示す場合があり、差別禁止法に違反する可能性があります。 知的財産権および著作権法の違反AI 駆動型ツールは膨大な量のデータに基づいてトレーニングされており、応答の具体的なソースを特定できないことがよくあります。このトレーニング データには、書籍、雑誌、学術ジャーナルなどの著作権で保護された資料が含まれる場合があります。著作権で保護された作品に基づく AI 出力を引用なしで使用すると、企業は法的罰金を科せられる可能性があります。 チャットボットの使用に関する法的考慮事項多くの企業が ChatGPT やその他の生成 AI ツールを自社のアプリケーションに統合し始めており、AI 搭載のチャットボットを使用して顧客の問い合わせに即座に回答する企業もあります。しかし、顧客に事前に通知せずにそうすると、RoboDisclosure Actなどの規制に基づいて罰則が科せられる可能性があります。 データプライバシー企業によっては、独自の生成 AI モデルを開発したいと考える場合がありますが、そのプロセスでは大量のトレーニング データの収集が必要になる場合があります。脅威アクターが企業の IT インフラストラクチャを侵害し、トレーニング データに不正アクセスした場合、侵害されたデータセットに含まれる機密情報が漏洩し、データ プライバシー法に違反する可能性があります。 AI 構築における主要なビジネス上の課題は、人、プロセス、テクノロジーに影響を及ぼします。生成 AI は、セキュリティに加えて、アルゴリズムの偏り、幻覚、技術的な複雑さなどの課題ももたらします。 企業で生成AIツールを使用する際のセキュリティのベストプラクティス生成 AI に関連する多くのセキュリティ リスクに対処するために、企業は生成 AI ツールを実装する際に次の戦略を念頭に置く必要があります。 1. 生成AIを構築または統合する前に、データを分類、匿名化、暗号化する企業は、データをチャットボットに入力したり、生成 AI モデルのトレーニングに使用したりする前に、データを分類する必要があります。これらのユースケースに許容されるデータを決定し、その他の情報を AI システムと共有しないでください。 同様に、トレーニング データセット内の機密データは、機密情報の漏洩を防ぐために匿名化されます。 AI モデル データセットとそのすべての接続を暗号化し、強力なセキュリティ ポリシーと制御で最も機密性の高いデータを保護します。 2. 生成AIのセキュリティリスクについて従業員を教育し、社内使用ポリシーを策定する従業員のトレーニングは、生成 AI に関連するサイバー攻撃のリスクを軽減するための最も重要な保護対策です。生成 AI を責任を持って実装するには、企業は従業員にこの技術の使用に伴うリスクについて教育する必要があります。 企業は、安全性と許容される使用に関するポリシーを策定することで、職場での生成 AI の使用に関するガイドラインを設定できます。具体的な内容は企業によって異なりますが、一般的なベストプラクティスには人間による監視が必要です。 AI が生成したコンテンツを自動的に信頼しないでください。AI ツールによって作成されたすべてのコンテンツは人間が確認して編集する必要があります。 AI の使用と安全に関するポリシーでは、チャットボットへのクエリに含めることができるデータと含めることができないデータも明確に規定する必要があります。たとえば、開発者は AI ツールに知的財産、著作権で保護された素材、PII、PHI を追加してはなりません。 3. セキュリティのための生成AIツール生成 AI ツールを本番環境に導入する前に、セキュリティ監査と定期的な侵入テストを実施して、セキュリティの脆弱性を特定します。 セキュリティ チームは、サイバー攻撃の例を AI ツールに提供することで、攻撃の試みを認識して防御するように AI ツールをトレーニングすることもできます。これにより、ハッカーが企業の AI システムを悪用する可能性が低くなります。 4. 機密性の高い業務データへの従業員のアクセスを管理するエンタープライズ環境で最小権限の原則を適用し、許可された担当者のみが AI トレーニング データセットと基盤となる IT インフラストラクチャにアクセスできるようにします。 ID およびアクセス管理ツールを使用すると、従業員のアクセス資格情報と権限を一元管理して制御できます。同様に、多要素認証を実装すると、AI システムとデータ アクセスを保護するのに役立ちます。 5. 基盤となるネットワークとインフラストラクチャのセキュリティを確保する専用のネットワーク セグメントに AI システムを展開します。個別のネットワーク セグメントを使用し、ホスト AI ツールへのアクセスを制限することで、セキュリティと可用性を強化できます。 クラウドで AI ツールをホストする企業の場合は、厳格なセキュリティ制御を実装し、有効なコンプライアンス認定を取得している評判の良いクラウド プロバイダーを選択し、クラウド インフラストラクチャへのすべての接続が暗号化されるようにします。 6. 定期的なサプライヤー監査を含むコンプライアンス要件に細心の注意を払うコンプライアンス規制は常に進化しており、企業での AI 導入が増加するにつれて、組織では生成 AI テクノロジーに関連するコンプライアンス要件が増えることが予想されます。 企業は、AI システムの使用に関連する変更について、自社の業界に影響を及ぼすコンプライアンス規制を注意深く監視する必要があります。このプロセスの一環として、サードパーティベンダーの AI ツールを使用する場合は、ベンダーのセキュリティ制御と脆弱性評価を定期的に確認してください。これにより、サプライヤーのシステムにおけるセキュリティ上の脆弱性が会社の IT 環境に侵入することが防止されます。 |
>>: OpenAI: ChatGPTはクローラープロトコルに準拠し、ウェブサイトは無料での使用を拒否できる
7月19日、Metaはついに無料の商用版Llama 2をリリースし、オープンソースの大規模モデルの...
犯罪現場の足跡が貴重な証拠となるのと同様に、野生動物の足跡も野生生物保護活動家にとって同様に貴重なも...
最近、CCTVニュースによると、中国は2月末までに計画通り5Gネットワーク構築の80%を完了した...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
本日の記事では、グラフを使用して分散一貫性の実装原則を深く研究し、理解します。まず、自己を見つめ直す...
メタバースの概念が誇張され、まるでそれが本当に存在するかのように人々が話していることは間違いありませ...
制作:ビッグデータダイジェスト編集部長い間待ち望まれていた『ゲーム・オブ・スローンズ』の最終シーズン...
現在のビッグデータ業界では、アルゴリズムのアップグレード、特に機械学習の導入により、「パターン発見」...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能はもはや未来的な概念ではなく、私たちの日常生活に欠かせないものとなっています。私たちが目覚め...
COVID-19パンデミックの発生以来、世界中の研究チームがコロナウイルスの検出や感染の予測に役立つ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
無人運転技術にはまだ改善の余地があるものの、ますます成熟しつつあることは認めざるを得ません。車線逸脱...