他の情報技術と同様に、人工知能もさまざまなセキュリティ問題や、プライバシー、差別、不公平などの新たな問題に直面することになります。アメリカ国立標準技術研究所 (NIST) は、AI に関連するリスクをより適切に管理するための自主的なフレームワーク「人工知能リスク管理フレームワーク (AI RMF)」を開発しています。このフレームワークの目標は、AI 製品、サービス、システムの設計、開発、使用、評価など、AI に信頼性を組み込む能力を向上させることです。 このフレームワークの初期ドラフトは、NIST が 2021 年 12 月に発表した概念文書に基づいています。 NIST は、AI RMF が AI ベースのシステムのリスクが他の分野のリスクとどのように異なるかを説明し、利害関係者グループがこれらのリスクに的を絞って対処することを奨励することを期待しています。 NISTは、既存の法律、規制、その他の強制的なガイダンスなど、フレームワークを超えたコンプライアンスのマッピングにも使用できると述べた。 AI フレームワークは他の NIST フレームワークと同様のリスクに直面していますが、リスクの「ギャップ」や懸念の一部は AI に特有のものです。こうしたギャップこそ、AI RMF が埋めて解決したいものなのです。 AI ステークホルダーグループと技術的特徴NIST は、フレームワークの対象読者として、AI システムの利害関係者、オペレーターと評価者、外部の利害関係者、一般の人々の 4 つの利害関係者グループを特定しています。 AI システムに関連するリスクを特定し、管理するための包括的なアプローチで考慮すべき特性の 3 レベルの分類法 (技術的特性、社会技術的特性、およびガイドラインの原則) を採用します。 技術的特性とは、AI システムの設計者や開発者が直接制御し、精度、信頼性、回復力などの標準的な評価基準を使用して測定できる要素を指します。社会技術的特性とは、「説明可能性」、プライバシー、セキュリティ、差別の管理など、AI システムが個人、グループ、社会の文脈でどのように使用され、認識されるかを指します。 AI RMF タクソノミーでは、指導原則はより広範な社会規範と価値観を指し、公平性、説明責任、透明性などの社会的優先事項を示します。 他の NIST フレームワークと同様に、AI RMF コアには、AI リスク管理アクティビティの 3 つの要素 (機能、カテゴリ、サブカテゴリ) が含まれています。その機能は、AI リスクをマッピング、測定、管理、統制することです。 AI RMF はプロファイルを通じて特定のユースケースのコンテキストを提供することを想定していますが、このタスクは計画されている実践ガイダンスとともに、後のドラフトに延期されています。 NIST は 3 月中旬にフレームワークの草案を発表した後、AI テクノロジーにおける有害な偏見 (差別) を軽減する方法を詳細に検討するなど、AI RMF のさまざまな側面について議論する 3 日間のワークショップを開催しました。ワークショップから得られた洞察の一部を以下に示します。 AIリスクのマッピング:コンテキストが重要AIリスクをマッピングする際、「コンテキスト、ユースケース、導入シナリオをまだ把握する必要があります」とカーネギーメロン大学の研究者レイド・ガニ氏はNISTワークショップで述べた。「理想的には、これらすべてのことがシステム構築時に行われるべきです。」 「環境や構造の多様性を考えると、個人や組織にとってのリスクは間違いなく異なるでしょう」と、米国の健康保険プラン担当副社長、マリリン・ジグムンド・ルーク氏は出席者に語った。「リスク評価の観点からこれらすべてのリスクを理解するには、ゼロから始めて、いくつかの異なるパラメータを確立する必要があると思います。」 AI活動の測定:新しい技術が必要AI システムに固有の社会政治的倫理と慣習の複雑さのため、AI 関連活動の測定はまだ初期段階にあります。 「測定機能の大部分は、この特定の状況において差別が何を意味するのか、そして関連する価値は何かを理解するために、本質的に人間に委ねられています。リスクは基本的に組織や人間の価値に対する脅威であり、価値を特定するのは難しいからです」とカリフォルニア大学サンディエゴ校のデビッド・ダンクス氏は述べた。 AIの出現により、新しい指標と測定方法の必要性が生まれ、理想的にはAI技術自体の創造に組み込まれるべきだ、とAIの安全性と研究を専門とする企業、アンスロピックの共同創設者ジャック・クラーク氏は述べた。 「現代の AI テクノロジーの課題の 1 つは、テクノロジー自体と合わせて新しい測定手法を設計、開発する必要があることです。」 AIリスクの管理: トレーニングデータのアップグレードが必要AI RMF の管理内容は、利益を最大化し、悪影響を最小限に抑えるためにリスクのマッピングと測定に取り組んでいます。しかし、データ品質の問題がAIのリスク管理を妨げる可能性があると、ParityAIの最高技術責任者ジェイソン・チャン氏は述べた。 「モデルのトレーニングに現在利用できるデータは、数年古い可能性があるため、必ずしも現実世界に適用できるとは限りません。トレーニング データが今日の世界の状況を本当に反映しているかどうかを検討する必要があります。」 「デジタル体験を創造するための世界最高のテクノロジーを提供するだけではもはや十分ではありません」と、アドビの倫理イノベーション担当ディレクターのグレース・イーは述べています。「私たちは、当社のテクノロジーが包括性を重視し、お客様、コミュニティ、そしてアドビの価値観を尊重するように設計されていることを確認したいのです。具体的には、AI が有害な偏見を生み出していないかどうかを評価するための新しいシステムとプロセスを開発しています。」 ニューヨーク大学ロースクールのヴィンセント・サザーランド氏は、予測機能を備えた警察ツールの使用は非常に問題になる可能性があると指摘している。 「これらの AI システムは、犯罪者の特定から釈放時期まで、刑事システム全体に導入されています。しかし最近まで、これらのツールが依存するデータとその運用方法が、実際には人種的不平等を悪化させ、刑事システム自体の弊害を増幅させる可能性があるという根本的な認識はほとんどありませんでした。」 AIガバナンス:適切に実施している組織は少ないAIガバナンスポリシーに関しては、bnh.aiの研究者であるパトリック・ホール氏は、大規模な消費者金融組織といくつかの他の規制の厳しい分野を除いて、AIの使用に関する正式なガバナンスガイドラインがないため、企業はこれらの困難なガバナンスの問題を独自に解決するしかないと述べています。 マイクロソフトの最高 AI 責任者であるナターシャ・クランプトン氏は次のように述べています。「失敗の明らかな兆候は、ガバナンスのアプローチが断片化されすぎている場合です。つまり、チームが AI モデルを本番環境に導入したいと思っても、チーム間の調整がほとんどなく、独自のプロセスと構造を採用しているだけです。」 ウェルズ・ファーゴのエグゼクティブ・バイスプレジデント兼エンタープライズ・モデル・リスク責任者のアグス・スジアント氏も、AIリスクの上級レベルのガバナンスの重要性を強調した。 「AIの担当者や管理者に地位、情報源、上級管理職からのサポートがなければ、ガバナンスは成り立ちません。」 アクセンチュア・クラウドの主任テクノロジスト、テレサ・タン氏は、すべての企業が人工知能に注意を払う必要があると強調した。 「世界のトップ2,000社のうち約半数が財務報告書でAIについて言及しています。これはすべての企業が認識する必要があることです。」 サイバーセキュリティ フレームワークなど、NIST が開発した他のリスク管理フレームワークと同様に、最終的な AI RMF は、民間部門と公共部門の両方に広範な影響を及ぼす可能性があります。 NISTは草案に対する一般からの意見を募集しており、締め切りは2022年4月29日となっている。 |
>>: 一人称視点でガンダムを運転する? !コックピットに直接座り、VRを操作して材料を掴む。掘削機よりも柔軟。
人工知能はますます多用途になり、すでに私たちの仕事のすべてを人工知能が引き継ぐことができるようです。...
[[409291]]労働日報記者 イェ・ユン・チェン・ニン 写真家 チェン・ニン編集者注人工知能(...
パート01 背景1.1 GPU アプリケーションのシナリオGPU (グラフィックス プロセッシング ...
近年、GPT、GLM、LLaMAなどの大規模言語モデルは自然言語処理の分野で大きな進歩を遂げており、...
清華大学の卒業生 2 人によって作成されたこのツールは、ツールの使用においてGPT-4 の主要な利点...
データ保護とセキュリティは、何十年もの間、企業にとって最大の懸念事項でした。現在、75% 以上の企業...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ご存知のとおり、コンピューティング パワーの文字通りの意味はコンピューティング能力です。 「コンピュ...
CCF-GAIR 2020人工知能フロンティア特別セッションでは、南京大学コンピュータサイエンス学...
現在、世界経済の回復は依然として緩やかです。国際通貨基金(IMF)が最近発表した世界経済見通しレポー...
ディープラーニングは高度に反復的なプロセスです。最適な組み合わせを決定するには、ハイパーパラメータの...