人工知能は厳しい規制の時代に入る

人工知能は厳しい規制の時代に入る

ChatGPTに代表されるLLM(Large Language Model)に基づく生成AIアプリケーションは世界中で普及が進んでおり、さまざまな業界でフロントエンドやバックエンドのシステムへの組み込みが急ピッチで進められています。一方で、普及の進展に伴い、生成AIが抱えるセキュリティリスクも顕在化しています。

生成 AI 自体は、プロンプト インジェクションなどのさまざまな攻撃に直面しており、企業にデータ漏洩、コンテンツ セキュリティ、著作権侵害などの新たな脅威をもたらす可能性があります。さらに、生成 AI の本質的な「ブラック ボックス」の性質により、「AI 軍拡競争」で急速に成長している自律型 AI システムは、制御がますます困難になり、いつでも制御不能になり、壊滅的な結果をもたらす可能性があります。

ホワイトハウスがAI規制に関する大統領令を発令

2023年10月30日にはバイデン米大統領が「人工知能の安全で信頼性のある開発と利用に関する大統領令」を発令し、2023年5月には主要7か国首脳が「先進的人工知能システム組織のための国際行動規範策定のための広島プロセス」を支持する共同声明を発表した。

ホワイトハウスの大統領令は、ホワイトハウスのこれまでの AI への取り組みを基にしており、業界と政府にガイドラインを提供しています。国家安全保障に関わる組織は、AI 技術の二重使用の可能性に特に注意を払う必要があります。大統領令では、安全性を最優先とする 7 つの重要な問題を指摘しています。

  • 安全を確保します。
  • アメリカ人のプライバシーを保護する。
  • 公平性と公民権を促進します。
  • 消費者と労働者の利益を保護する。
  • イノベーションと競争を促進します。
  • 海外における米国のリーダーシップを強化する。
  • 政府が AI を責任を持って効果的に使用できるようにします。

人工知能を規制するのは誰でしょうか?

AI 規制の第一歩は標準を設定することであり、米国国立標準技術研究所 (NIST) が先頭に立っています。ホワイトハウスの大統領令は、安全で信頼性が高く、信用できる AI の開発と展開を確実にするために、AI ガイドラインとベストプラクティスを開発し、業界のコンセンサス標準を推進するよう NIST に明示的に指示しています。

同時に、ホワイトハウスの国家サイバー長官室はソーシャルメディア上で大統領の大統領令に対する認識を表明した。「本日の大統領令は、AIの安全性、米国人のプライバシーの保護、公平性と公民権の促進に関する新たな基準を設定するものであり、消費者と労働者の利益を守り、イノベーションと競争を促進し、世界における米国のリーダーシップを強化するものである。」

米国国土安全保障省は、大統領令とその責任を説明するファクトシートを発表し、次の3つの主要な措置を強調しました。

  • 「AIの責任ある開発を支援する」ための人工知能安全諮問委員会(AISSB)の設立。委員会には、AIハードウェアおよびソフトウェア企業、主要な研究機関、重要なインフラ組織、米国政府から著名な業界専門家が参加します。
  • 重要なインフラストラクチャの所有者と運営者が使用するための AI セキュリティ ガイダンスの開発に取り組んでいます。
  • AI を使用して米国のサイバー防御を向上できる可能性は、CISA が「脅威の検出、防止、脆弱性評価のために AI と機械学習 (ML) ツールを積極的に活用している」ことを強調しています。

一方、米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は、ソーシャルメディアの投稿で「AIの使用に伴うリスクを評価し、米国のサイバー防衛を改善するAIの可能性について重要なインフラ部門に指針を提供し、生成AIのレッドチームテストに関する推奨事項を策定する」と強調した。

AI企業のための9つのセキュリティポリシー

米大統領の大統領令には、水曜日に開幕し、世界の指導者、テクノロジー企業、AI専門家を集めて「AIに関する重要な対話を促進する」英国AI安全サミットについても言及されている。

AI セキュリティ サミットでは、高度な AI テクノロジーを開発する企業に対し、次の 9 つの AI セキュリティ ポリシーに注意するよう呼びかけました。

  • リスク管理フレームワーク。最先端の AI システムにおける組織の能力を強化するためのリスク管理フレームワークを提供し、企業が将来起こりうるより危険な AI リスクに事前に備えられるようにします。
  • モデル評価とレッドチーム テストは、 AI モデルによってもたらされるリスクを評価し、モデルのトレーニング、セキュリティ保護、展開に関するより適切な意思決定に役立ちます。
  • モデルの報告と情報共有により、最先端の AI 開発と展開に対する政府の可視性が向上し、ユーザーは AI システムを使用するかどうか、またどのように使用するかについて十分な情報に基づいた選択を行うことができます。
  • モデルの重みの保護を含むセキュリティ制御は、 AI システムのセキュリティにとって重要な基盤です。
  • 脆弱性報告メカニズムは、外部の人が AI システムのセキュリティ上の問題を特定して報告するのに役立ちます。
  • AI コンテンツタグ付け。 AI 生成コンテンツには、コンテンツが AI によって生成または変更されたかどうかを識別するための識別子を追加する必要があります。これにより、欺瞞的な AI 生成コンテンツの作成と配布を防ぐことができます。
  • AI がもたらすリスクに関する研究を優先することで、最先端の AI がもたらす新たなリスクを特定し、対処するのに役立ちます。
  • モデルの悪用を防止および監視することは重要です。AI システムは、一度導入されると、意図的に悪用され、有害な結果を引き起こす可能性があるためです。
  • データ入力の制御と監査は、高度な AI システムの危険な機能とリスクを増大させる可能性のあるトレーニング データを特定して削除するのに役立ちます。

CISOが注意すべきこと

人工知能に対する規制が厳しくなっている時代に、CISO は人工知能セキュリティ製品に関連するコンプライアンスの問題を非常に重視する必要があります。CISO はネットワーク セキュリティ製品を厳密にレビューおよび評価し、セキュリティ ベンダーにセキュリティ製品に統合されている AI/ML テクノロジのソースと証明可能なテスト結果を提供するよう要求する必要があります。さらに、世界的な AI 規制政策の流動性を考えると、国境を越えた調整の欠如は現実的な問題であり、地域や国間でガイダンスや規制に違いがある場合、下流のコンプライアンス問題につながる可能性があります。

<<:  人工知能と創造性:人間と機械の境界線が曖昧になる

>>: 

ブログ    
ブログ    
ブログ    

推薦する

...

...

ハッカーが、さまざまなネットワーク攻撃コードを自動生成できる悪質なAIツールFraudGPTを公開

7月31日、「ハッカーがAIを使って犯罪ツールを作る」という研究者の懸念が徐々に現実のものとなりつつ...

無人バスは無人タクシーよりも信頼性が高いでしょうか?

バスがプラットフォームに到着するのを待って、バスに乗り、カードをスワイプします。いつもの朝の通勤風景...

...

面接でコンシステントハッシュアルゴリズムについて再度質問されました。この答えは面接官を即死させるでしょう!

[[284994]]データシャーディングまずは例を見てみましょう。多くの場合、キャッシュには Re...

ウォータールー大学はヒートマップ回帰を放棄し、複数人の姿勢推定のための新しい方法を提案した。

[[436983]]キーポイント推定は、画像内の関心ポイントを特定するコンピューター ビジョン タ...

...

マイクロソフトはAIを活用して新しい電池材料を選別し、電池のリチウムの70%をナトリウムに置き換える

1 月 10 日、マイクロソフトの量子コンピューティング チームは、米国エネルギー省傘下のパシフィッ...

Boyaのディープラーニング製品がHuman Horizo​​nsの自動運転実現に貢献

ヒューマンホライゾンズテクノロジーズ株式会社は、新エネルギー車、インテリジェントネットワーク、共同交...

インテルと4Paradigmが協力し、誰もがAIを利用できるように

[51CTO.com からのオリジナル記事] 今日、人工知能はもはや遠い概念ではなく、私たちの仕事と...

弁護士の仕事もAIによって奪われるのでしょうか?ユーザー: 他に何ができますか?

モバイルインターネット時代の到来により、AIは前例のない成果を達成し、人々の生活のあらゆる側面に入り...

...

...

AIの中心的な難しさの1つ:感情分析の一般的な種類と課題

感情分析または感情 AI は、商用アプリケーションでは意見マイニングと呼ばれることが多く、自然言語処...