まとめ 刑事司法の分野では、人工知能(AI)がますます重要な役割を果たしています。リスク評価システム(RAI)の導入などの典型的な応用事例は、米国で論争を巻き起こしています。RAIは効率性を向上させる一方で、偏見や不公平をもたらす可能性もあります。中国が司法分野に AI を導入する中で、RAI の経験からどのような教訓が得られるのでしょうか?
人工知能(AI)は社会のさまざまな分野に全面的に浸透しています。科学技術の発展に伴い、インテリジェント技術は公共の安全を含む社会問題に対する解決策もますます多く提供してきました。特に刑事司法の分野では、AI は証拠の収集と分析、犯罪の予測と予防、司法判断と量刑のガイドなど、さまざまな用途に使用されています。中国では裁判所のデジタル化も進んでいる。最高人民法院の首席判事であり最高裁判所長官でもある周強氏は、中国の裁判所は現代のテクノロジーを司法手続きに統合することに注力していると述べた。我が国の司法制度は、その知能化においてアルゴリズムの支援にますます依存するようになるでしょう。それはまた、人工知能が司法の意思決定にもっと直接的かつ実質的に参加できるようになることを意味します。したがって、刑事司法の原則との整合性を確保するためには、アルゴリズムツールの利点と潜在的な危険性を十分に理解する必要があります。 1. 司法判断における典型的なAIの応用:米国リスク評価システム(RAI) 米国の収監率は世界のどの国よりも高く、2016年時点ではアメリカ人の成人38人に1人が矯正施設に収容されている。投獄率を下げ、刑事司法を改革するという圧力により、米国はスマートツールに目を向けるようになった。リスク評価ツール (RAI) は、被告人の個人プロファイルを使用して再犯スコアを推定します。スコアは、裁判官が被告人と犯罪を釈放するかどうかを決定するのに役立ちます。例えばケンタッキー州では、1976年からリスクスコアリングが使用されており、出廷の可能性に基づいてスコアが割り当てられています。サブリスクフレームワークでは、各被告を低リスク、中リスク、高リスクに分類し、裁判官がより透明性と客観性のある決定を下せるようにします。 理論的には、RAI は刑事司法に数多くの利益をもたらすように設計されています。一方、前述のように、アルゴリズム ツールはリスク スコアリングに明確なチェックリスト基準を使用します。ケンタッキー州は2011年にHB463を可決し、投獄率を下げるために裁判前のリスクスコアの使用を義務付けた。裁判前にどの被告人を刑務所に送るべきかについて裁判官がより科学的になれば、刑務所の過密による経済的負担は軽減される可能性がある。さらに、この研究では、RAI の統計モデルが人間の意思決定者よりも一貫して機能していることが示されました。アルゴリズムを評価するために使用される基準は透明であるため、裁判所は決定の根拠をより適切に説明することができます。その結果、刑事司法改革の最前線に立つカリフォルニア州をはじめ、ますます多くの州が、刑事司法のニーズを満たすために RAI に頼るようになりました。 しかし、RAI の人気は激しい議論ももたらしました。 RAI に関して懸念される主な理由は 3 つあります。 まず、機械学習の核心である、RAI はデータの傾向を見つけることができます。しかし、アルゴリズムは過去の犯罪データを使用してトレーニングされており、偏った警察活動や不完全なデータ収集(「ダークフィギュア」)によって歪められていることが多い。アメリカの数学者キャシー・オニール氏が著書で述べているように、機械学習アルゴリズムが偏った統計を使用すると、貧困層や有色人種にさらなる害が及び、悪循環が生まれます。したがって、RAI の使用は偏見を複製および増幅し、公正かつ公平な司法制度の原則を損なう可能性があります。 第二に、RAI メカニズムは、グループと個人の区別の問題を提起します。 2016 年のウィスコンシン州最高裁判所の有名な Loomis v. Wisconsin 訴訟で主張されているように、RAI は正確な個人リスク スコアを提供しません。代わりに、リスク予測は集合データとの類似性および過去の傾向との比較に基づいています。メリッサ・ハミルトンは、グループベースのデータを個別の評価に変換すると、簡単に「穴があいてしまう」可能性があると指摘しています。アルゴリズムの出力がユーザーによってどのように解釈されるかが不明な場合、RAI リスク スコアは簡単に誤解される可能性があります。したがって、司法制度に関わる人々にリスクを伝える適切な方法を見つけることが重要です。 最後に、RAI は再犯の可能性を特定できますが、この特定はまだ証明されていない相関関係にすぎません。 RAI では、相関関係が真の因果関係に対応しているかどうかを証明することはできません。たとえば、低所得が再犯率の高さと関連している場合、この相関関係は低所得が犯罪を引き起こすという証拠にはなりません。 RAI は犯罪における社会経済的要因を特定するように設計されていませんが、その出力は、注意深く解釈しないと因果関係があるように見せかける可能性があります。同様に、関連性は人間のユーザーによって理解され、意味が与えられる必要がありますが、人間は個人的な政治的志向や価値観を持ち込み、認知バイアスを課す可能性があります。 RAI 評価の価値を高めるために、ベイズ最適化を使用してリスク スコアの確実性を示すことができます。しかし、RAI 評価結果における確実性係数の重要性は依然として不明瞭な点です。 II. 中国の司法制度におけるAI RAI は刑事司法の万能薬からは程遠いものの、このようなツールは AI が司法制度に与える影響について重要な洞察を提供します。私の国では現在、RAIのようなリスク評価システムを使用していませんが、顔認識、DNA分析、ファイルのデジタル化など、多くの公共安全関連の分野でAIが応用されています。貴陽市は2017年以来、ビッグデータ事件処理システムを通じて419件の刑事事件と480人を処理しました。同時に、昨年と比較すると、事件処理時間は30%短縮され、証拠不十分による不逮捕率も28.8%減少しました。明らかに、ビッグデータと人工知能は司法制度に一定の貢献を果たしてきました。しかし、我が国の司法情報はまだ初期段階にあり、いくつかの欠点が残っています。例えば、現場の担当者からは「単純なケースには必要ないが、複雑なケースでは敢えて使わない」といった問題点が指摘された。 周強最高人民法院長が述べたように、賢明な司法制度の野望は我が国の刑事司法の将来計画を反映することができる。中国共産党第18期中央委員会第4回全体会議の趣旨を参照すると、人工知能は「証拠基準の統一」と「誤った有罪判決や不当な有罪判決の防止」という目標の達成に役立つ可能性がある。予測 AI は客観性と効率性を向上させますが、アルゴリズムの偏り、データ エラー、不明確な相関関係が悪影響を及ぼす可能性があります。したがって、アルゴリズム ツールの欠点を軽減する戦略を見つける必要があります。これらの戦略は、すべての司法制度と政策立案者が刑事司法分野で AI をより有効に活用するための適切な方法を見つけるための指針となります。この点に関しては、RAI の既存の経験が適切な洞察を提供することができます。 3. アルゴリズムツールがもたらす隠れた危険にどう対処するか まず、審査員、アルゴリズム プログラム、開発者の間で責任を割り当てるためのフレームワークを確立する必要があります。 AIの責任は、さまざまな分野で長年にわたり疑問視されてきました。今日、AI が司法の意思決定に与える影響が大きくなるにつれ、司法の責任を明確に定義することが特に重要になります。ルーミス対ウィスコンシン州訴訟では、COMPAS 評価システムは企業秘密とみなされたアルゴリズムを使用していたため、開示できませんでした。これにより、評価エラーや技術的な脆弱性に対する責任の割り当てがより困難になります。司法分野における公平性と正義の原則のために、いかなる司法制度も誤った有罪判決に対する責任を明確に定義でき、開発者とユーザーの間で明確な責任分担ができなければなりません。さらに、将来的にAIが法的実体を取得する可能性もあるため、刑事司法におけるAIの説明責任を確保するために、インテリジェントシステムに対する適切な罰則も確立する必要があります。 第二に、自然正義の中核原則によれば、いかなる事件も十分な理由をもって決定論理を説明できなければならない。したがって、RAI や同様のツールには、すべての関係者がリスク評価の原因と結果を完全に理解できるように、一定レベルの透明性がなければなりません。これはまた、RAI のトレーニングに使用されるデータを評価して、トレーニング データと現在のケースとの互換性があるかどうか、およびアルゴリズムの出力が一部の社会集団を不当に扱うかどうかを判断する必要があることも意味します。このような包括的な評価には、データ サイエンティストが特定の分野の専門家と協力し、RAI の出力をより適切に解釈する必要もあります。 さらに、RAI アルゴリズムのバイアスを軽減するための対策に加えて、人間の認知バイアスも悪影響を及ぼす可能性があります。アレックス・オルブライト氏によるケンタッキー州RAIデータの研究は憂慮すべき傾向を明らかにした。裁判官は黒人被告の保釈金免除を勧告するアルゴリズムの出力を却下する傾向が強かったのだ。したがって、さまざまな司法関係者が RAI の出力をどのように解釈するかを理解する必要があります。 AI ツールを刑事司法に責任を持って導入するには、アルゴリズムによる偏見を克服する必要があるだけでなく、暗黙の人間による偏見も排除する必要があります。裁判官は、RAI の意味を最も適切に解釈する方法について、より良い訓練を受ける必要があるかもしれません。同時に、裁判官はRAIの勧告を拒否した理由について詳細な説明を求められる可能性がある。アルゴリズムによる偏見を排除する対策と合わせて、人間の偏見を特定することも、司法制度における AI の応用にとって重要です。 最後に、政策立案者はスマートツールの使用結果を継続的に監視し、そのパフォーマンスを評価し、その結果を公表する必要があります。司法制度や参加者によって、司法判断における AI の使用に対する反応が異なり、予想外の反応を示す可能性があります。こうした可能性を予測し、管理するために、政策立案者は研究者や市場参加者と協力して、AI が司法行動をどのように変えるか、またアルゴリズムが刑事司法に与える長期的な影響について理解を深める必要があります。 IV. 追加コメントと結論 RAI のようなツールが提供する利点にもかかわらず、その欠点は人間による意思決定が引き続き必要であることを浮き彫りにしています。特に重要かつ複雑なケースでは、インテリジェント ツールで使用されるデータは、アルゴリズムまたは人間の偏りがあるかどうかを識別し、ケースごとに異なる関連要素を保持するために、慎重に評価する必要があります。 AI は将来、司法上の意思決定にさらに大きな影響を与え、人間の意思決定に取って代わる可能性もありますが、法律や社会規範の変化など、法制度の進化的な性質には、常に人間の深い関与が必要になります。したがって、アルゴリズム支援による意思決定の目的は、一度限りの解決策に重点を置きすぎないようにしてください。むしろ、人間と AI の効果的な連携を通じて AI のプラスの能力を最大限に引き出し、より効率的で公正な刑事司法制度を構築することに重点を置くべきです。 |
>>: 私の国の自動運転開発は、年初に巨額の資金提供を受けて大いに支持されている
1956 年の夏、米国のダートマス大学で開催された学術会議で、「人工知能」という用語が初めて提案さ...
好きなように置き換えてください。保持する必要がある領域をフレームするだけで、AI がすべてを置き換え...
序文分散ストレージ システムが直面する主な問題は、大量のデータを異なるストレージ ノードに分散する方...
[[348166]]導入2020年は世界にとって激動の年です。経済状況は流行病の影響を受けており、不...
人工知能によるコンピュータネットワークへの需要の爆発的な増加に対処するため、プリンストン大学の研究者...
ChatGPT は、翻訳、作詞作曲、リサーチ、コーディングなど、さまざまなスキルに優れています。しか...
[[246854]]私の意見では、警告、悲観、パニックはすべて「廬山の本当の顔を知らない」根拠のない...
MIT 博士課程の学生による驚くべき発見: Transformer の特定のレイヤーを非常に単純に削...
AIは簡単に使えますが、AIを実装するまでの道のりは簡単ではありません。企業が最大限の努力を払ってい...
人工知能が20年間進歩したにもかかわらず、オフィスワークのほとんどは単純な頭脳労働で構成されているよ...
[[398946]]画像ソース @Visual China本文 | 冰建技術研究所自然言語処理(N...
[[429163]]人工知能、機械学習、自動化などの先進技術の普及により、企業のビジネスシナリオは大...