他の情報技術と同様に、人工知能もさまざまなセキュリティ問題や、プライバシー、差別、不公平などの新たな問題に直面することになります。アメリカ国立標準技術研究所 (NIST) は、AI に関連するリスクをより適切に管理するための自主的なフレームワーク「人工知能リスク管理フレームワーク (AI RMF)」を開発しています。このフレームワークの目標は、AI 製品、サービス、システムの設計、開発、使用、評価など、AI に信頼性を組み込む能力を向上させることです。 このフレームワークの初期ドラフトは、NIST が 2021 年 12 月に発表した概念文書に基づいています。 NIST は、AI RMF が AI ベースのシステムのリスクが他の分野のリスクとどのように異なるかを説明し、利害関係者グループがこれらのリスクに的を絞って対処することを奨励することを期待しています。 NISTは、既存の法律、規制、その他の強制的なガイダンスなど、フレームワークを超えたコンプライアンスのマッピングにも使用できると述べた。 AI フレームワークは他の NIST フレームワークと同様のリスクに直面していますが、リスクの「ギャップ」や懸念の一部は AI に特有のものです。こうしたギャップこそ、AI RMF が埋めて解決したいものなのです。 AI ステークホルダーグループと技術的特徴NIST は、フレームワークの対象読者として、AI システムの利害関係者、オペレーターと評価者、外部の利害関係者、一般の人々の 4 つの利害関係者グループを特定しています。 AI システムに関連するリスクを特定し、管理するための包括的なアプローチで考慮すべき特性の 3 レベルの分類法 (技術的特性、社会技術的特性、およびガイドラインの原則) を採用します。 技術的特性とは、AI システムの設計者や開発者が直接制御し、精度、信頼性、回復力などの標準的な評価基準を使用して測定できる要素を指します。社会技術的特性とは、「説明可能性」、プライバシー、セキュリティ、差別の管理など、AI システムが個人、グループ、社会の文脈でどのように使用され、認識されるかを指します。 AI RMF タクソノミーでは、指導原則はより広範な社会規範と価値観を指し、公平性、説明責任、透明性などの社会的優先事項を示します。 他の NIST フレームワークと同様に、AI RMF コアには、AI リスク管理アクティビティの 3 つの要素 (機能、カテゴリ、サブカテゴリ) が含まれています。その機能は、AI リスクをマッピング、測定、管理、統制することです。 AI RMF はプロファイルを通じて特定のユースケースのコンテキストを提供することを想定していますが、このタスクは計画されている実践ガイダンスとともに、後のドラフトに延期されています。 NIST は 3 月中旬にフレームワークの草案を発表した後、AI テクノロジーにおける有害な偏見 (差別) を軽減する方法を詳細に検討するなど、AI RMF のさまざまな側面について議論する 3 日間のワークショップを開催しました。ワークショップから得られた洞察の一部を以下に示します。 AIリスクのマッピング:コンテキストが重要AIリスクをマッピングする際、「コンテキスト、ユースケース、導入シナリオをまだ把握する必要があります」とカーネギーメロン大学の研究者レイド・ガニ氏はNISTワークショップで述べた。「理想的には、これらすべてのことがシステム構築時に行われるべきです。」 「環境や構造の多様性を考えると、個人や組織にとってのリスクは間違いなく異なるでしょう」と、米国の健康保険プラン担当副社長、マリリン・ジグムンド・ルーク氏は出席者に語った。「リスク評価の観点からこれらすべてのリスクを理解するには、ゼロから始めて、いくつかの異なるパラメータを確立する必要があると思います。」 AI活動の測定:新しい技術が必要AI システムに固有の社会政治的倫理と慣習の複雑さのため、AI 関連活動の測定はまだ初期段階にあります。 「測定機能の大部分は、この特定の状況において差別が何を意味するのか、そして関連する価値は何かを理解するために、本質的に人間に委ねられています。リスクは基本的に組織や人間の価値に対する脅威であり、価値を特定するのは難しいからです」とカリフォルニア大学サンディエゴ校のデビッド・ダンクス氏は述べた。 AIの出現により、新しい指標と測定方法の必要性が生まれ、理想的にはAI技術自体の創造に組み込まれるべきだ、とAIの安全性と研究を専門とする企業、アンスロピックの共同創設者ジャック・クラーク氏は述べた。 「現代の AI テクノロジーの課題の 1 つは、テクノロジー自体と合わせて新しい測定手法を設計、開発する必要があることです。」 AIリスクの管理: トレーニングデータのアップグレードが必要AI RMF の管理内容は、利益を最大化し、悪影響を最小限に抑えるためにリスクのマッピングと測定に取り組んでいます。しかし、データ品質の問題がAIのリスク管理を妨げる可能性があると、ParityAIの最高技術責任者ジェイソン・チャン氏は述べた。 「モデルのトレーニングに現在利用できるデータは、数年古い可能性があるため、必ずしも現実世界に適用できるとは限りません。トレーニング データが今日の世界の状況を本当に反映しているかどうかを検討する必要があります。」 「デジタル体験を創造するための世界最高のテクノロジーを提供するだけではもはや十分ではありません」と、アドビの倫理イノベーション担当ディレクターのグレース・イーは述べています。「私たちは、当社のテクノロジーが包括性を重視し、お客様、コミュニティ、そしてアドビの価値観を尊重するように設計されていることを確認したいのです。具体的には、AI が有害な偏見を生み出していないかどうかを評価するための新しいシステムとプロセスを開発しています。」 ニューヨーク大学ロースクールのヴィンセント・サザーランド氏は、予測機能を備えた警察ツールの使用は非常に問題になる可能性があると指摘している。 「これらの AI システムは、犯罪者の特定から釈放時期まで、刑事システム全体に導入されています。しかし最近まで、これらのツールが依存するデータとその運用方法が、実際には人種的不平等を悪化させ、刑事システム自体の弊害を増幅させる可能性があるという根本的な認識はほとんどありませんでした。」 AIガバナンス:適切に実施している組織は少ないAIガバナンスポリシーに関しては、bnh.aiの研究者であるパトリック・ホール氏は、大規模な消費者金融組織といくつかの他の規制の厳しい分野を除いて、AIの使用に関する正式なガバナンスガイドラインがないため、企業はこれらの困難なガバナンスの問題を独自に解決するしかないと述べています。 マイクロソフトの最高 AI 責任者であるナターシャ・クランプトン氏は次のように述べています。「失敗の明らかな兆候は、ガバナンスのアプローチが断片化されすぎている場合です。つまり、チームが AI モデルを本番環境に導入したいと思っても、チーム間の調整がほとんどなく、独自のプロセスと構造を採用しているだけです。」 ウェルズ・ファーゴのエグゼクティブ・バイスプレジデント兼エンタープライズ・モデル・リスク責任者のアグス・スジアント氏も、AIリスクの上級レベルのガバナンスの重要性を強調した。 「AIの担当者や管理者に地位、情報源、上級管理職からのサポートがなければ、ガバナンスは成り立ちません。」 アクセンチュア・クラウドの主任テクノロジスト、テレサ・タン氏は、すべての企業が人工知能に注意を払う必要があると強調した。 「世界のトップ2,000社のうち約半数が財務報告書でAIについて言及しています。これはすべての企業が認識する必要があることです。」 サイバーセキュリティ フレームワークなど、NIST が開発した他のリスク管理フレームワークと同様に、最終的な AI RMF は、民間部門と公共部門の両方に広範な影響を及ぼす可能性があります。 NISTは草案に対する一般からの意見を募集しており、締め切りは2022年4月29日となっている。 |
>>: 一人称視点でガンダムを運転する? !コックピットに直接座り、VRを操作して材料を掴む。掘削機よりも柔軟。
商業用不動産業界は進化を遂げており、人工知能 (AI) などのテクノロジーが、このダイナミックな市場...
人工知能(AI)は未来の技術ではなく、すでに存在している技術です。機械学習のイノベーションにより A...
執筆者 | Yun Zhao制作:51CTO テクノロジースタック(WeChat ID:blog)と...
機械学習の基盤となるデータは、GB、TB、PB と数え切れないほど増加してきました。現在、より大規模...
近年、人工知能の台頭の勢いに乗って生体認証技術が急速に発展し、顔認識に代表される一連のサブセクターが...
01 ハイテク時代の失業ゼロ半世紀以上前、有名な数学者ジョン・フォン・ノイマンは、機械を製造するコ...
[[392244]] 4月9日午後3時、「初の顔認識事件」は杭州市中級人民法院で二審判決を受けた。こ...
機械学習に関しては、それに関するプロジェクトを 1 つまたは 2 つ聞いたことがあるかもしれません。...
人工知能はここ数年で大きな進歩を遂げました。 AIテクノロジーで生み出されるソリューションは想像を絶...
[51CTO.com クイック翻訳] 人工ニューラル ネットワークには、ネットワークのアーキテクチャ...
1999年、ハリウッドSF映画史上最も重要なSF映画『マトリックス』が公開されました。この映画は、...