「公平性」、人工知能はこれを達成できるのか?

「公平性」、人工知能はこれを達成できるのか?

2020年の東京オリンピックはこれまで以上に盛り上がっています。 7月28日に行われた男子体操個人総合決勝で、中国の選手、肖若騰の競技パフォーマンスは、ミスゼロの完璧だったと言える。しかし結局、肖若騰は88.065点を獲得し、男子個人総合で銀メダルしか獲得できなかった。

[[414848]]

残念ながら、公平性を追求する上で、未だに解決されていない問題がいくつあるのでしょうか。

科学技術の急速な発展に伴い、スポーツ競技ではペナルティ判定の補助手段として人工知能技術を活用できるでしょうか?

人工知能審判の開発レベル

2013年、NBAはスポーツVUシステムを導入しました。これは、各アリーナの天井に吊り下げられた6台の3D高解像度カメラをコンピューターデータ分析に接続するシステムです。各カメラは1秒間に25枚の画像を撮影できます。さまざまなセンサーがスーパーカメラに接続され、動態をキャプチャし、追跡と分析を行い、データを抽出し、処理されたデータをNBAデータベースに入力します。シリコンバレーのテクノロジー界の大物やテクノロジー愛好家のお気に入りであるNBAのゴールデンステート・ウォリアーズは、このシステムの助けを借りて2018年のNBAチャンピオンシップを獲得しました。それ以来、ゴールデンステート・ウォリアーズは「NBAのGoogle」として称賛されている。

現在、スポーツ競技における人工知能技術の応用に関する研究は比較的少なく、研究は主にペナルティ判定の補助、つまりテニスやバレーボールなどの競技における「ホークアイ」の応用に焦点を当てています。いわゆる「イーグルアイ」はインスタントリプレイシステムとしても知られています。高速カメラを使用して、さまざまな角度から高速で移動するターゲットの軌道を撮影し、開始点と終了点を決定し、審判が試合を判断するのを支援します。 「ホークアイ」の存在意義は、人間の目の観察能力の欠陥を克服し、審判が正確かつ公正な判定を下すのに役立つことです。

2018年ロシアワールドカップでは、ビデオリプレイを使用して審判の判定を支援するビデオアシスタントレフェリー(VAR)システムが使用されました。サッカーの最高峰イベントであるワールドカップでVARシステムが使用されるのは今回が初めてだ。グループステージでは、VARは1試合平均6.9回使用され、ペナルティ判定の精度は95%から99.3%に向上した。

同様に、格闘技、ダンス、ダイビングなどのスポーツでも、人工知能を活用することで審判の主観を減らし、競技をより公平にすることができるのでしょうか?

実は、現在の人工知能審判技術はまだ成熟には程遠く、スポーツ人工知能技術はコンピュータサイエンスの発展に大きく遅れをとっており、ソフトウェアとハ​​ードウェアのマッチングには一連の問題があります。

「アルゴリズムによる差別」

人工知能審判が人間の審判に取って代わるための最大の課題は、機械にスポーツの試合を「理解」させることですが、逆に言えば、この技術を使用する機会がある私たちにとって、人工知能を「理解」することは難しいと感じることが多いのです。

アルゴリズムが複雑になるにつれ、機械学習のプロセスを通じて下された決定を AI 内部のコードで説明することがますます難しくなっています。つまり、アルゴリズムは「ブラックボックス」であり、人間がアルゴリズムの結果を制御および予測することは不可能であり、その結果、アルゴリズムの適用に一定の不公平な傾向があります。

一般的に言えば、「ブラックボックス」アルゴリズムと一般消費者のプラットフォームの価格設定に対する信頼に基づいて、ユーザーは通常、自分の購入価格が他の消費者と異なることに疑問を抱かず、このような隠れた「スマート」な価格差別を識別することはさらに困難です。大多数の消費者は、さまざまなプラットフォームの差別化された支払いモデルを知らないうちに受け入れざるを得ません。これはいわゆる「ビッグデータが慣れ親しんだものを殺す」ことであり、不公平の現れでもあります。

現在、市場で広く使用されている人工知能システムの多くは不透明であり、企業秘密の保護制度により、通常は監視を逃れ、既存の規制制度から逸脱することができます。外部からの監督がない場合、差別的な操作が増加するだけでなく、アルゴリズムユーザーの意図的な隠蔽により、アルゴリズムのブラックボックスが徐々に規制の真空状態に移行し、既存の規制制度がアルゴリズムの「ブラックボックス」を効果的に開くことが不可能になる可能性があります。

華南理工大学のシャオ・ティエン氏は、「アルゴリズム、モデル、その他の数学的手法によって、より客観的で公正な現実社会を作り変えることを期待する」という「数学的洗脳」の考え方は、あまりにも希望的観測に過ぎないと考えている。

「アルゴリズムによる差別」の本質は、現実世界における社会的差別の延長線上にある。ネイチャー誌はかつて、ビッグデータアルゴリズムには偏見を増大させ、人為的ミスを再現または悪化させる可能性があるため、その潜在的なリスクを無視することはできないと主張する論説を掲載した。また、ビッグデータアルゴリズムはより多くの責任を負い、社会的差別を悪化させるのではなく、なくすか減らすべきだと指摘した。つまり、ビッグデータは人間の社会生活を映し出す鏡なのです。アルゴリズムは過去のデータを分析することで未来を予測し、これまで人間が排除できなかった差別や偏見がビッグデータを通じてアルゴリズムに取り込まれる可能性も出てきます。

元のトレーニング データには偏りがあり、アルゴリズムの実行時にこれらの偏りが意思決定プロセスに導入される可能性があります。アルゴリズム自体は受け取ったデータに疑問を抱くのではなく、データの背後にある暗黙の構造とパターンを探して掘り下げるだけなので、人間がアルゴリズムに入力したデータに最初から特定の偏りや好みがある場合、アルゴリズムによって得られる出力結果は人間の偏りと同じになります。

一方、アルゴリズムの適用は体系的かつ広範囲に及び、アルゴリズムモデルは通常再利用されるため、その影響はますます大きくなります。

こうした影響はテクノロジー自体によって排除できるのだろうか?アリゾナ大学人工知能研究所の研究者であるアハメド・アバシ氏は、ハーバード・ビジネス・レビュー誌に記事を発表し、データを出発点としてアルゴリズムによる差別を防ぐいくつかの方法を説明した。対策の 1 つは「オーバーサンプリング」、つまり人口統計学的手法に基づいてアルゴリズム モデルを設計し、アルゴリズムの出力結果の精度を向上させることです。さらに、「少数派グループやエッジケースの重要性を手動で増幅したり軽視したりするなど、機械学習に追加の公平性対策を導入する」ことでも、アルゴリズムモデルによって生成された差別を修正することができます。

しかし、それだけではまだ十分ではありません。一方、アルゴリズムの偏りは計算結果の偏差につながるだけでなく、倫理的および法的リスクも引き起こします。この矛盾は医療分野で特に顕著です。

現状、病院におけるAIの実際の適用においては、倫理審査の仕組みが存在しない。一部の病院では、医薬品の臨床試験で導入されている倫理審査の仕組みを参考に、医療AI導入の倫理審査を行っているが、十分に適用することは困難である。倫理審査なしに医療AIを導入する病院が増えており、医療AIシステムを患者に適用する際の潜在的なリスクを回避するために患者のインフォームドコンセントを利用しようとする病院もあります。

国家薬品監督管理局は医療用 AI に関する関連ガイドラインを発行し、範囲、リスク、臨床試験に関する規制を設けて認証プロセスを開始しました。

現段階では、医療 AI の最終結果は依然として手作業で検証および検討する必要があり、患者の診断と治療結果については医師が責任を負います。将来、医療AIが臨床現場に広く導入された後、説明責任がどのように達成されるかは依然として不明です。

人工知能の法的規制

ビッグデータの専門家であり、『ビッグデータの時代』の著者でもあるショーンベルガー氏は、ビッグデータの特徴は絶対的な精度よりも効率性の追求であり、因果関係よりも相関関係を追求することだと述べた。現代社会では、ビッグデータとアルゴリズムの組み合わせが伝統的な意思決定方法を覆している。では、価値中立の平等アルゴリズムは存在するのか、あるいは、裁判所が従うべき、あるいは学ぶべき、憲法と法律の平等な保護に関する「唯一の正解」は存在するのか。中国人民大学法学院の丁暁東准教授は、「これは不可能な課題だ」と述べた。

中国社会科学院法学研究所の徐斌研究員は、アルゴリズムの応用プロセスによって生み出される偏見や差別は、まだ中国社会の注目の的になってはいないと考えている。さらに、「弱い人工知能」の文脈では、人工知能に関するすべての法的規制は、具体的な応用シナリオと組み合わせる必要がある。立法活動では急速に変化する社会関係を規制することはできないため、現時点では人工知能に対する一般的な法的規制を採用することはできないかもしれない。つまり、現在、アルゴリズムによる差別を規制するためのさまざまな法的規制を検討し、構築し、改善する必要があるということです。

現在、我が国におけるアルゴリズムによる差別を含む人工知能の法的規制は、まだ初期段階にあります。規制レベルでは、電子商取引に関する法律の中に、アルゴリズムによる差別を規制するための個別の規定がすでに存在しています。例えば、「電子商取引法」第18条は、初めて「ビッグデータによる既存顧客殺し」に明確に対応した。この条項では、電子商取引プラットフォームは、商品を推奨したり広告をプッシュしたりする際に、消費者にユーザーの肖像を含まないサービス内容を表示しなければならないと規定されている。また、「電子商取引法」第40条では、検索エンジンサービスにおける入札順位についても規定しており、サービス提供者には関連情報を目立つように表示することが義務付けられている。実際、この条項はアルゴリズム管理者に情報開示義務を課している。

国務院は今年、「新世代人工知能発展計画」を発表した。この指導文書は、政府がリスク管理と市場監督において相応の機能を果たし、人工知能に関する「全プロセス」の規制システムを確立することを明確に要求している。

「アルゴリズム監査や無監視トレーニングなどの手段を通じて偏見を回避または修正し、人工知能の透明性と公平性を維持することが、発展の唯一の道だ」と上海交通大学付属小児病院の余光軍院長は語った。

一方、規制当局は、アルゴリズム管理者が使用するアルゴリズムが所定の軌道に沿っているかどうか、また差別的な結果を引き起こしていないかどうかを定期的に審査します。自動化されたアルゴリズムが保護対象グループに異なる影響を及ぼす場合、規制当局はレビューの結果を一般に公開する必要があります。一方、アルゴリズムの透明性が欠如している場合、規制当局は、アルゴリズム管理者が個人または組織が公共の利益に影響を与えるアルゴリズムをレビューできるように、必要なアクセス チャネルを提供しているかどうかを確認する必要があります。

公平は相対的ですが、不公平は絶対的です。無限の想像力に満ちた新しいテクノロジーである人工知能は、この真実を覆すことに失敗しただけでなく、それを証明し、アルゴリズムによる差別という前例のない問題さえも提示しました。このような現実に直面し、公平な解決を模索しても解決策がないのであれば、まずはルールを作る権利を握り、より大きな力で勝利するしかない。

<<:  南京大学の周志華氏と清華大学の胡世民氏が学者候補に選出されました!コンピュータ分野合計7名

>>:  DeepMind と Google がまた大きな動きを見せました!ニューラルネットワークを使用して NP 困難な MIP 問題を解く

ブログ    
ブログ    

推薦する

ロボットを活用する3つの革新的な方法

ロボット産業は創業以来、大幅な収益成長を遂げてきました。 2023年までに、世界のロボット市場は年間...

中国の良き叔父から12歳の開発者Jing Kunまで:DuerOSはすべての開発者に平等に力を与えます

スマート音声開発者はAIの「ゴールドラッシュ」を先導しています。 7月4日、第2回百度AI開発者会議...

...

ワイヤレス ネットワークと人工知能が出会うと何が起こるでしょうか?

人工知能(AI)は未来の技術ではなく、すでに存在している技術です。機械学習のイノベーションにより A...

マスク氏に敵対的買収の疑い!ツイッター株を受け取ったが取締役会には参加せず、訴訟を起こされている

これはすべて悪意のある計画ですか? ツイッター株を7000万株以上購入した後、マスク氏は取締役会への...

...

...

個人信用リスク評価モデルにおける新しいビッグデータアルゴリズムの使用の有効性の評価

1980 年代に、FICO はロジスティック回帰アルゴリズムに基づく FICO クレジット スコアリ...

...

...

感動して泣きました。ロボットはついに自分で服をたたむことを覚えました。

人間の子どもの最も基本的な運動知能、例えばつかむ、持ち上げる、あるいはキルトや衣服をたたむといった家...

自動運転のゴールドラッシュ、このトラックの価値は少なくとも3000億ドル

[[384274]]市場主導型の自動運転プロセスの第2フェーズが始まるにつれ、自動運転の商業化が議題...

AIを金融業界の傍観者と考えるのはやめよう

2019年には目を見張るようなAIイノベーションが数多く見られ、今後も金融業界におけるAIの影響は深...

...