人工知能は厳しい規制の時代に入る

人工知能は厳しい規制の時代に入る

ChatGPTに代表されるLLM(Large Language Model)に基づく生成AIアプリケーションは世界中で普及が進んでおり、さまざまな業界でフロントエンドやバックエンドのシステムへの組み込みが急ピッチで進められています。一方で、普及の進展に伴い、生成AIが抱えるセキュリティリスクも顕在化しています。

生成 AI 自体は、プロンプト インジェクションなどのさまざまな攻撃に直面しており、企業にデータ漏洩、コンテンツ セキュリティ、著作権侵害などの新たな脅威をもたらす可能性があります。さらに、生成 AI の本質的な「ブラック ボックス」の性質により、「AI 軍拡競争」で急速に成長している自律型 AI システムは、制御がますます困難になり、いつでも制御不能になり、壊滅的な結果をもたらす可能性があります。

ホワイトハウスがAI規制に関する大統領令を発令

2023年10月30日にはバイデン米大統領が「人工知能の安全で信頼性のある開発と利用に関する大統領令」を発令し、2023年5月には主要7か国首脳が「先進的人工知能システム組織のための国際行動規範策定のための広島プロセス」を支持する共同声明を発表した。

ホワイトハウスの大統領令は、ホワイトハウスのこれまでの AI への取り組みを基にしており、業界と政府にガイドラインを提供しています。国家安全保障に関わる組織は、AI 技術の二重使用の可能性に特に注意を払う必要があります。大統領令では、安全性を最優先とする 7 つの重要な問題を指摘しています。

  • 安全を確保します。
  • アメリカ人のプライバシーを保護する。
  • 公平性と公民権を促進します。
  • 消費者と労働者の利益を保護する。
  • イノベーションと競争を促進します。
  • 海外における米国のリーダーシップを強化する。
  • 政府が AI を責任を持って効果的に使用できるようにします。

人工知能を規制するのは誰でしょうか?

AI 規制の第一歩は標準を設定することであり、米国国立標準技術研究所 (NIST) が先頭に立っています。ホワイトハウスの大統領令は、安全で信頼性が高く、信用できる AI の開発と展開を確実にするために、AI ガイドラインとベストプラクティスを開発し、業界のコンセンサス標準を推進するよう NIST に明示的に指示しています。

同時に、ホワイトハウスの国家サイバー長官室はソーシャルメディア上で大統領の大統領令に対する認識を表明した。「本日の大統領令は、AIの安全性、米国人のプライバシーの保護、公平性と公民権の促進に関する新たな基準を設定するものであり、消費者と労働者の利益を守り、イノベーションと競争を促進し、世界における米国のリーダーシップを強化するものである。」

米国国土安全保障省は、大統領令とその責任を説明するファクトシートを発表し、次の3つの主要な措置を強調しました。

  • 「AIの責任ある開発を支援する」ための人工知能安全諮問委員会(AISSB)の設立。委員会には、AIハードウェアおよびソフトウェア企業、主要な研究機関、重要なインフラ組織、米国政府から著名な業界専門家が参加します。
  • 重要なインフラストラクチャの所有者と運営者が使用するための AI セキュリティ ガイダンスの開発に取り組んでいます。
  • AI を使用して米国のサイバー防御を向上できる可能性は、CISA が「脅威の検出、防止、脆弱性評価のために AI と機械学習 (ML) ツールを積極的に活用している」ことを強調しています。

一方、米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は、ソーシャルメディアの投稿で「AIの使用に伴うリスクを評価し、米国のサイバー防衛を改善するAIの可能性について重要なインフラ部門に指針を提供し、生成AIのレッドチームテストに関する推奨事項を策定する」と強調した。

AI企業のための9つのセキュリティポリシー

米大統領の大統領令には、水曜日に開幕し、世界の指導者、テクノロジー企業、AI専門家を集めて「AIに関する重要な対話を促進する」英国AI安全サミットについても言及されている。

AI セキュリティ サミットでは、高度な AI テクノロジーを開発する企業に対し、次の 9 つの AI セキュリティ ポリシーに注意するよう呼びかけました。

  • リスク管理フレームワーク。最先端の AI システムにおける組織の能力を強化するためのリスク管理フレームワークを提供し、企業が将来起こりうるより危険な AI リスクに事前に備えられるようにします。
  • モデル評価とレッドチーム テストは、 AI モデルによってもたらされるリスクを評価し、モデルのトレーニング、セキュリティ保護、展開に関するより適切な意思決定に役立ちます。
  • モデルの報告と情報共有により、最先端の AI 開発と展開に対する政府の可視性が向上し、ユーザーは AI システムを使用するかどうか、またどのように使用するかについて十分な情報に基づいた選択を行うことができます。
  • モデルの重みの保護を含むセキュリティ制御は、 AI システムのセキュリティにとって重要な基盤です。
  • 脆弱性報告メカニズムは、外部の人が AI システムのセキュリティ上の問題を特定して報告するのに役立ちます。
  • AI コンテンツタグ付け。 AI 生成コンテンツには、コンテンツが AI によって生成または変更されたかどうかを識別するための識別子を追加する必要があります。これにより、欺瞞的な AI 生成コンテンツの作成と配布を防ぐことができます。
  • AI がもたらすリスクに関する研究を優先することで、最先端の AI がもたらす新たなリスクを特定し、対処するのに役立ちます。
  • モデルの悪用を防止および監視することは重要です。AI システムは、一度導入されると、意図的に悪用され、有害な結果を引き起こす可能性があるためです。
  • データ入力の制御と監査は、高度な AI システムの危険な機能とリスクを増大させる可能性のあるトレーニング データを特定して削除するのに役立ちます。

CISOが注意すべきこと

人工知能に対する規制が厳しくなっている時代に、CISO は人工知能セキュリティ製品に関連するコンプライアンスの問題を非常に重視する必要があります。CISO はネットワーク セキュリティ製品を厳密にレビューおよび評価し、セキュリティ ベンダーにセキュリティ製品に統合されている AI/ML テクノロジのソースと証明可能なテスト結果を提供するよう要求する必要があります。さらに、世界的な AI 規制政策の流動性を考えると、国境を越えた調整の欠如は現実的な問題であり、地域や国間でガイダンスや規制に違いがある場合、下流のコンプライアンス問題につながる可能性があります。

<<:  人工知能と創造性:人間と機械の境界線が曖昧になる

>>: 

ブログ    
ブログ    

推薦する

滴滴出行のスマート交通建設における3つの短期目標:信号機の改善、バスシステムのオンライン化、予測スケジュール

[51CTO.comより] 両会期中の政府活動報告に人工知能が盛り込まれた。万鋼科学技術部長は、中国...

ますます大きく、さらに大きく:AI 研究は長期的には行き詰まりに陥るのでしょうか?

[[286629]]ビッグデータダイジェスト制作出典: techtalks編纂者:穆金、曹培鑫、銭...

2020 年の産業用 IoT ソリューション トップ 10

IoT については誰もが知っていますが、そのサブセットである産業用 IoT は、製造および産業プロ...

北京で人工知能アイスクリームマシンがデビュー、IBMは「AI + ブロックチェーン」でダイヤモンドを識別

1. 人工知能搭載のアイスクリームセルフサービス機が北京でデビューDairyXmas AI人工知能ア...

AIGCの6つの主なリスク

ChatGPTを運営するOpenAIのCEOサム・アルトマン氏は最近、議会公聴会で政府によるAIの規...

ディープラーニングがなぜディープラーニングと呼ばれるのかご存知ですか?

これは単純なプッシュです。今日はディープラーニングという名前についてのみお話します。ディープラーニン...

生成型AIを学ぶ際の7つの課題

生成 AI は変革の原動力となり、機械が達成できるものの限界を押し広げています。テキストや画像の生成...

ロボットによるカスタマーサービスが本物か偽物かを見分けるのは難しいですか? !

[51CTO.com 速訳] 海外メディアの報道によると、ニュージーランドのソウルマシーンズ社は最...

...

北京、自動運転路上試験の新規則を発表、有人試験も可能に

最近、北京市交通委員会は新たに改訂された「北京市自動運転車両路上試験管理実施規則(試行)」を発行し、...

マスク氏:人間の脳とAIコンピューターは10年以内に接続可能

11月26日の英国デイリーメール紙によると、スペースXとテスラのCEOであるマスク氏は、人間の知能の...

...

自動運転車向けのディープラーニングは課題にどのように対処するのでしょうか?

[[350796]]自動運転車でディープラーニングを使用すると、歩行者の行動を理解したり、最短ルー...

インテリジェントな変革の時代を迎える: AIでビジネスの未来をリードする

インテリジェント トランスフォーメーションの本質: インテリジェント トランスフォーメーションは、テ...

...