自動運転の倫理的ジレンマを解決する: 道徳規範を数式に変換する

自動運転の倫理的ジレンマを解決する: 道徳規範を数式に変換する

暴走列車が線路を走っています。5人が線路に縛られており、列車に轢かれそうになっています。この時点で、あなたは列車の軌道を変えるレバーの隣に立っています。このレバーを引くと、列車は別の線路に切り替わります。しかし、もう一方の線路にも人が縛られていました。選択肢が 2 つしかない場合、どうしますか?

  • 何もせず、列車が通常のルートで 5 人を轢くのを許してください。
  • レバーを下げて他の線路に切り替え、列車が他の線路にいる人を轢くようにします。

これは倫理学における有名な実験、「トロッコ問題」です。

技術的な側面は、公道での自動運転車の最終的な導入における一側面にすぎません。もう一つの非常に重要な課題は、いくつかのシナリオでは、自動運転車が人間にとっても非常に難しい道徳的判断を下さなければならないということです。

避けられない自動車衝突の場合、自動運転車は進む方向や衝突する対象をどのように選択すればよいのでしょうか?

自動運転の倫理に関する理論的研究は数多く行われてきましたが、これらの倫理的問題を統合し、実際に自動運転の軌道計画に適用する研究はほとんどありません。最近、ドイツのミュンヘン工科大学のマクシミリアン・ガイスリンガー氏とフランツィスカ・ポズラー氏を含む研究チームが「Philosophy & Technology」誌に「自動運転の倫理:トロッコ問題からリスクの倫理まで」と題する研究報告を発表した。彼らは倫理規範を数式に変換し、全体的なリスクの最小化、最悪のシナリオの優先順位、人間の平等を総合的に考慮した軌道計画のリスクコスト関数を提案した。

この論文はトロッコ問題から始まり、倫理原則について議論します。トロッコ問題はジレンマを表しています。2 つの次元によって問題の矛盾が生じます。第一の次元は、5人の命は1人の命より価値があるかということです。第二の次元は介入の度合いです。人の死を避けるために努力しないことと、積極的に人を殺すことの間には大きな違いがあり、これは法的な意味だけではありません。道徳的な観点から言えば、介入の必要性が高ければ高いほど、より多くの命を救うのに役立つ決定を人々が積極的に下すことが難しくなります。

路面電車とは異なり、自動運転車の軌道計画には初期設定はありませんが、アルゴリズムがすべての軌道を計算します。自動運転の場合、アルゴリズムは1秒以内に計算して決定を下すことができますが、人間はそのような状況ではパニックになり、本能で行動します。

自動運転軌道計画の概略図。青い領域は物理的に可能なすべての軌道を表します。破線は、可能な領域内の例示的な離散軌道です。

既存の倫理原則:功利主義、徳倫理、リスク倫理

満足のいく倫理的結果を構築するために、著者らは、現実的な代表性、技術的な実現可能性、一般化可能性、社会的受容性、説明可能性、透明性など、自動運転アルゴリズムにおける倫理的ジレンマに対処するための原則を紹介しています。

功利主義の道徳原理はイギリスの哲学者ジェレミー・ベンサムによって提唱され、全体的な利益を最大化することを強調しています。功利主義は、より多くの人々を救うために 1 人を犠牲にする決定を許可し、推奨しています。したがって、コスト関数を設計して、意思決定アルゴリズムが可能なオプションのコストを計算し、自動車事故の犠牲者の数を最小限に抑える戦略を選択するなど、コストが最も低いオプションを選択できるようにすることができます。

しかし、ここでの核心的な問題は、社会全体の効用を高めるために個人の効用を抑制することが正しく、許容されるかどうかということです。危険な状況で他人を守るために自らを犠牲にする自動運転車を、もし人が喜んで選ぶとしたらどうなるでしょうか?

この背後には、根本的な疑問もあります。自動運転車に業界共通の標準を実装するメーカーは、社会全体に義務的な倫理設定を課すべきでしょうか、それとも各ドライバーが自分の個人的な倫理設定を選択すべきでしょうか。

功利主義に加えて、ロマンチックな特徴を持つ美徳倫理は、美徳が個人的な特性であることを強調する傾向があります。慎重さ、勇気、節制、正義はすべて人間の基本的な美徳であるため、今日の AI 倫理の発展において、関連する理論は、認知マシンが類推によってこれらの美徳を示すべきであると示唆しています。

しかし、功利主義と比較した機械の美徳の欠点の 1 つは、説明的に事前にプログラムできないことです。今日の自動運転アルゴリズムは、機械学習アルゴリズムに基づいていることが多く、さまざまなパターンを生成する可能性があります。開発者は、モデルのトレーニング プロセス中に美徳を肯定的な報酬信号として組み込むことができ、最終的にはアルゴリズムが道徳的な行動を必要とする状況を認識し、適切な行動をとることができるようになります。

したがって、このような徳倫理に基づく戦略は汎用性も優れていますが、問題は、トレーニング データが極端な状況での正しい意思決定をうまく表現できないことです。同時に、説明可能性と帰属も達成するのが困難です。

次に著者は、3 番目の選択肢であるリスク倫理 (危険な状況における道徳的に正しい行動への対処) について説明します。リスク倫理には、ベイズの法則、最大化原則、予防原則という 3 つの確立された意思決定基準があります。

ベイズの意思決定基準では、さまざまな行動の選択肢に直面した場合、最大の期待効用を生み出す特定の行動を選択することが求められます。この期待効用は、さまざまなイベントが発生する確率と、その結果の指標/評価で構成されます。

最大化の原則は、それぞれの結果の確率に関する情報が入手できない場合に、最大の損害を回避することとして理解できます。したがって、意思決定者は、予想される最悪の状況下で、最も悪い結果が出ない代替アクションを選択します。

予防原則は、「後悔するより安全を」というモットーに従い、注意とリスク回避を推奨し、特定の法律を制定することで将来の潜在的な損害を積極的に防止します。

リスク倫理は、透明性(予測可能性が高いという意味)、普遍性(リスクの考慮が特定の状況に依存しない)、現実的な代表性(不確実性を十分に考慮する)が高く、そのため社会的受容度が比較的高いと言えます。

そして著者は、自身の知る限り、軌道計画においてリスク倫理に対する技術的なアプローチは実装されていないと示唆している。すると、理論的には、戦略結果の累積リスクを簡単に計算して比較することができ、プログラム可能な数式に反映されます。

リスク倫理はどのように形成され、実現されるのでしょうか?

リスク倫理の枠組みを理解するために、具体的なシナリオを想像してみましょう。自動運転車が自転車とトラックの間を走行しています。その位置によって、発生するリスクが決まります。自転車との距離を縮めると、自転車にリスクが移ります。自転車が車と衝突した場合の影響の方がはるかに大きいと考えられるためです。トラックとの距離を縮めると、自動運転車にリスクが移ります。一般的に、自動運転車の乗員へのリスクを最小限に抑えるには、自転車や歩行者などの脆弱な道路利用者を犠牲にする必要があります。

自分を守るためにリスクを弱者に転嫁するというこの行動は、最も厳格な倫理的精査を満たさない可能性があり、カントが強調した人間の尊厳とは相容れないが、ボネフォンらの研究では、ほとんどの参加者が依然としてこれをいかなる犠牲を払ってでも自分自身を守る自動運転車と呼ぶ傾向があり、自動車メーカーや自動運転技術プロバイダーがこの準備に基づいて関連戦略を設計することにもつながる可能性があることが示されています。

リスクの計算とモデル化を考えるとき、リスクは通常、発生確率と推定される結果の積として定義されます。この定量的な計算と戦略結果の推定を利用して、先人たちは関連する特定のアルゴリズム実験を提案してきました。その中で、Leben は参加者の生存確率の推定と最大化を重視し、本論文の著者らが提案した方法は関連する結果の確率とリスクの重ね合わせを重視しました。

この 2 次元の確率の重ね合わせでは、衝突の確率とそれに伴う結果の両方を推定する必要があります。衝突確率の推定は、自動運転のプロセスにおけるさまざまな不確実性の共通の結果から生じます。これらの不確実性は、上図で説明した動作計画の全プロセスに徐々に重ね合わされ、車両センサー、認識システム、予測アルゴリズムから生じます。

害の推定はさらに困難であり、主な課題は「害」の抽象的な量を定量化することです。倫理的な観点から見ると、さまざまな種類の危害をどのように定量化し、互いに比較検討すべきかは不明です。これは、特に致命的な結果をもたらす可能性のある極端な事故の場合、私たちにとって大きな困難をもたらします。たとえば、生涯にわたる障害を伴う重傷と死亡を天秤にかけることはできません。道徳的な観点から見ると、財産の損害と人身傷害を比較することはさらに困難です。経済的影響(金銭的価値など)を使用して損害を定量化する方法では、事故の結果を正確に理解する必要があります。実際、事故の重大性はある程度までしか予測できません。しかし、被害を定量的に予測することが難しいため、リスク倫理モデル全体の実装が困難になっています。

この困難を踏まえて、本論文の著者らは、衝突によって生じる危険の物理的特性に基づいて、基準物体の運動エネルギーと運動状態に基づくリスク分布を提案した。この分布調査では、運転車両とその他の道路参加者を個別に考慮するため、その後の戦略策定では異なるリスクの好みを実装できます。

リスク評価における「3つの原則」の適用

ベイズの原理の要件によれば、社会全体の利益は可能な限り最大化され、功利主義的考慮のニーズを満たす必要があります。これは、すべての参加者にとって最も高い期待利益をもたらす戦略を見つけることを意味します。しかし一方で、このアプローチは全体的なリスクを最小限に抑えることのみを目的としており、リスク関係に関する情報は提供されず、公平性も考慮されていません。この欠陥を改善するために、著者は、考慮されるリスクの差を最小限に抑えることでリスクを均等に分散することを要求する「平等原則」の制約も追加しました。

この平等の原則は、追加の制約がなければ、予期しない結果をもたらす可能性があります。たとえば、参加者が 2 人だけの場合、平等の原則を強調するだけでは、意思決定戦略は「1 人が軽傷を負い、もう 1 人が無傷」ではなく、両方の死を優先する可能性があります。

最後に、著者は「マキシミン原則」も強調しました。これは、意思決定戦略が「最大の害」を最小限に抑える解決策を見つけられるように設計されたものです。しかし、この原則だけを考慮すると、明らかな欠陥もあります。つまり、この可能性の量的な比較を考慮せずに、「起こり得る」最大の害の最小化を単に強調しているだけであり、これは、非常に高い確率で生じる大きな害が、非常に低い確率で生じる莫大な害よりも良いと考えられる可能性があることを意味します。多くの場合、これは、上記の確率分析に基づく功利主義的な考慮と矛盾するだけでなく、人々の単純な道徳的志向とも潜在的に相容れない可能性があります。

したがって、この記事で提案されている 3 つの原則はすべて体系的に欠陥があります。著者は、3 つの原則を同時に組み合わせることで、より良い戦略を実現しようと試みています。そこで筆者は、最終的に3つの戦略要因の重み付けに基づいて最終的なリスク定量化計算結果を提案した。この重み付けにより、さまざまな倫理的な設定を比較する機会が提供されます。個人的な道徳設定については、ユーザーの道徳的直感を反映する実証的研究から重みを導き出すことができます。これらの洞察を、法的および倫理的分野(人間の尊厳など)の基本原則やルールと組み合わせることで、自動運転車を必須の道徳的設定(従来の意味では、唯一許容され、要求される行動を意味する)に近づけるための出発点として役立ちます。

著者は、リスク計算に必要な 3 つの原則を考慮することに加えて、差し迫ったリスクの排除を必要とするリスク配分関数における時間要因 (アルゴリズムではローカル グリーディ戦略として要約されることが多い) を強調し、異なる時間後のリスクを定量化するために「割引係数」を使用することで、より緊急のリスクに対するこの考慮を実行できるようにしました。

<<:  グラフィカルな説明 | Linux メモリリサイクル LRU アルゴリズム

>>:  米裁判所、人工知能コンピューターは発明を特許できないと判決

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

GPT-5 プレビュー!アレン人工知能研究所がGPT-5の新機能を予測する最も強力なマルチモーダルモデルを発表

GPT-5 はいつ登場し、どのような機能を持つのでしょうか?アレンAI研究所の新しいモデルがその答え...

なぜ機械学習展開プラットフォームを Python ではなく Go で作成したのでしょうか?

Python は機械学習の分野で広く使われるようになりました。しかし、Python は、全能の神が...

MITは、Natureの表紙に掲載され、非コード領域のDNA変異を予測するディープラーニングフレームワークを設計した。

人間の細胞にはそれぞれ多数の遺伝子が含まれていますが、いわゆる「コーディング」DNA配列は、ヒトゲノ...

金融技術分野における人工知能と機械学習の応用と開発

[[383269]] [51CTO.com クイック翻訳] 過去数年間、金融業界では、業界の絶え間な...

製薬業界はAI医薬品製造の時代に突入。医薬機械企業にどのような影響を与えるのでしょうか?

現在、莫大な研究開発費と長い研究開発サイクルが、製薬会社の研究開発とイノベーションにおける「障害」に...

...

科学者らが自己再生材料に使える3Dプリント「生きたインク」を開発

[[437285]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

農産物産業における人工知能の応用と影響

農産物における人工知能の応用人工知能は、次のような農産物のあらゆる段階と側面に適用できます。農業: ...

...

GPT-3を超えて、DeepMindは新しいお気に入りのGatoをリリースしましたが、「スープは変えても薬は変えない」と疑問視されています

大規模な言語モデリングにヒントを得て、Deepmind は同様のアプローチを適用し、マルチモーダル、...

次のマーク・ザッカーバーグはAIになるのか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

ソフトウェアが自動車を飲み込んでいる、伝統的な自動車産業は消滅の危機に瀕しているのでしょうか?

[[440100]]半導体チップの継続的な不足が世界の自動車生産の減少につながるとの予測が高まって...

AIの最高峰:自然言語処理

近年、世界中でますます多くの政府や企業組織が人工知能の経済的、戦略的重要性を徐々に認識し、国家戦略や...

サイバーセキュリティにおける AI に関する 3 つの誤解

フィクションでも映画でも、人工知能は何十年にもわたって魅力的なテーマであり続けています。フィリップ・...