ビッグデータ、人工知能、そして法曹界の未来

ビッグデータ、人工知能、そして法曹界の未来

私は人工知能と法曹界の将来について数多くの講演を行ってきました。過去2年間、AlphaGo ZeroがAlphaGoに勝利したり、サウジアラビアが「ソフィア」というロボットに初めて市民権を与えたりと、基本的に2、3日ごとに人工知能に関する大きなニュースがありました。 2017年12月、深センで無人バス2台が正式に試験運行を開始した。 2017 年に人工知能が数多くの画期的な進歩を遂げたため、法曹界は人工知能と法律の関係にますます注目し始めました。

[[349417]]

腕で車を止めようとするよりも、手を離して抱きしめる方が良い

法律は人類最古の学問です。人類史上最初の成文化された法典であるハンムラビ法典は、3,800年以上前に登場しました。 1950年にアラン・チューリングが「機械は考えることができるか?」という疑問を初めて提起した時から始まり、1956年に数学者のジョン・マッカーシーがダートマス会議で「人工知能(AI)」という用語を初めて提唱した時から、人工知能の歴史はわずか60年以上しかありません。さらに、過去 60 年間にいくつかの浮き沈みを経験しており、画期的な進歩は近年になってようやく実現しました。

人工知能の発展は、人間社会の関わり方、組織構造、ビジネスモデルを変えており、法律専門職にも直接的な影響を及ぼしています。 「人工知能」という言葉が登場するずっと前から、人間の仕事を自動化すること、つまり人間の労働を機械に置き換えることが、数え切れないほど多くの科学者の努力の方向となっていました。最初は機械が人間の肉体労働に取って代わり、今では機械が人間の精神労働に取って代わっています。この疑問は、1940 年代後半にノーバート・ウィーナーが『サイバネティクス』を出版した時点ですでに多くの人々によって議論されていました。

当時の機械が人間の頭脳労働に取って代わるにはまだまだ遠いものでしたが、インターネットで生成された膨大なデータをディープラーニングに利用する今日の機械は、この目標にどんどん近づいています。人工知能について話すとき、明らかに 2 つのキーワードがあります。1 つは「人工」、もう 1 つは「知能」です。

しかし、AIは機械的、電子的な手段を使って人間の知能をシミュレートし、画期的な進歩を遂げた後に複製することができます。大量生産可能な人工知能製品の再現性は、人間のキャリアや労働に大きな影響を与えています。

法律と医学は、人間社会のさまざまな職業の中でも常にトップの職業です。なぜなら、これら 2 つの職業のスキルを習得するには長期間の学習と訓練が必要であり、どちらも参入障壁が高く、従事者は厳格な法的および倫理的規範に従う必要があるためです。しかし、現在、人工知能はこれら 2 つの職業に激しい影響を及ぼしており、ビッグデータ精密医療と法的な人工知能製品はこれら 2 つの職業の将来の見通しを変えています。

同様に、法律を学ぶ人々も、比較的限定された概念と原則の集合を学んでいます。ヘンリー2世の治世中の古代ローマとイギリスで生まれた法的概念は、今日でも私たち弁護士によって毎日研究され、適用されています。法律を学ぶのに単に法理論の方法を用いるだけでは、私たちの周りで起こっている地球を揺るがすような変化に対処することは困難でしょう。社会秩序の維持者としての法律専門家は、こうした変化に適応する意欲と能力が弱い場合が多い。インターネットや人工知能の問題について専門的に解説する非常に有名な知識人でありメディア関係者であるクレイ・シャーキーはかつてこう言った。「機関や組織は特定の社会問題を解決するために設立され、その存在の正当性を保つために、常にこれらの問題が完全に解決されるのを阻止しようとする」。彼は、急速な技術発展を含む社会全体を規制するために、固有の枠組み、組織、手続きを使用しようとする法律専門家の保守主義を批判していた。彼の見解では、社会全体が急速な変化を遂げている時代に、こうした保守主義は多くの問題を引き起こす可能性がある。法律専門家は、制度化され構造化された動物であるため、常に馴染みのない扉を閉ざそうとし、馴染みのある概念や思考の枠組みを使って、技術革新がもたらすさまざまな新しい可能性を制限しようとします。しかし、この取り組みは流れを変えるというよりは、戦車を止めようとするカマキリのようなものだ。より実現可能な姿勢は、新しいテクノロジーに対して心を開き、それがもたらすさまざまな新しいキャリアシナリオに積極的に参加し、参加の過程でそれらを理解し、それらが生み出す新しい機会を最大限に活用し、同時にそれがもたらすさまざまな新しいリスクに注意を払うことです。馬を飼いならす最良の方法は馬の前に立つのではなく馬に乗ることであり、同様に AI を飼いならす最良の方法は馬に乗りながら AI を制御することです。

現在、人工知能が人間の労働に取って代わり、人々が職を失うことになるという予測については、多くの議論が非常に悲観的ですが、私の意見では、人工知能は実際に多くの新たな雇用機会を切り開くでしょう。人工知能は多くの仕事を置き換えるでしょうが、私たちが知識構造を絶えず更新できる限り、より多くの雇用機会が開かれるでしょう。

実際、先見の明のある法律専門家の中にはすでに行動を起こしている人もいます。例えば、大成法律事務所に買収されたアメリカの企業デントンズは、早くも2016年に独自の人工知能研究所「Nextlaw Labs」を設立した。同社はIBMの認知技術プラットフォームWatsonと連携し、法務人工知能製品ROSSを開発した。これは市場で最も成熟した法律人工知能製品の 1 つであり、数十の国際法律事務所と中国のいくつかのレッドサークル法律事務所でテストされ、使用されています。

さらに、David Law Firm を含む多くの大手法律事務所では、最高知識責任者または最高技術責任者と呼ばれる新しい役職を設けています。主な業務は、法律知識製品への投資、購入、使用です。この製品を購入して適用するということは、法律事務所が事務作業を行っている弁護士数名を解雇することを意味します。これは米国では非常に明白な事実となっている。最高知識責任者は、同社のデータベース構築と投資、人工知能製品の開発と展開を専門とするチームを率いる。これは、新しい法律専門職、つまり法律知識エンジニアが出現していることを示唆しています。現在、我が国でも明らかな兆候が見られます。近年の司法改革により、客観的に見て、多くの裁判官や検察官がビッグデータや人工知能の業界に参入するようになった。例えば、華語元店、上海のベージュデータ、アリババの法務・セキュリティ部門はいずれも、辞任した裁判官や検察官を多数吸収している。この兆候は、法律関連の人工知能製品が弁護士に代わるケースが多数あることも示しています。多くの法律事務所は、新しい弁護士を雇う代わりに、法律関連の人工知能製品を購入するために多額の費用を費やすでしょう。これは学生にとっては悪いニュースだが、良いニュースでもある。なぜなら、過去には誰もが公安、検察、裁判所で働くか、弁護士になるかの選択肢が非常に限られていましたが、将来は法学部卒業生がビッグデータ企業などの他の業界に参入し、法務部門だけでなく製造部門にまで進出し、プログラマーと協力して、より法的規則に沿った人工知能製品を設計できるようになるからです。私の意見では、法律知識エンジニアはまったく新しい職業です。それは単なる概念ではなく、現実のものとなっています。

法律専門職における人工知能の応用の現状

以下は、法曹界における AI 応用の現状を示す、米国の 3 つの事例です。

1 つ目は電子証拠開示です。ここでいう「証拠収集」とは、訴訟手続きにおける狭義の証拠収集を指すのではなく、訴訟や取引のつながりにおける事実資料の整理や相関分析など、広義の証拠収集も含まれる。現在、多くの取引がオンラインで完了しており、取引記録も大量に存在します。これらは電子フォレンジックに属し、人工知能製品が分析する必要があるオブジェクトです。非訴訟業務においても、税務申告、コンプライアンス審査、上場準備、ビジネス交渉、取引などの業務を完了するために、大量の事実を保存する必要があります。米国では、この種の作業のための非常に成熟した製品がすでに存在します。Brainspace という会社が開発した Discovery という製品は、関係者が事実資料を整理するのに役立ちます。これまで、大企業が1年間の確定申告を完了しようとする場合、関連データの整理に大規模なチームと1~2か月かかることが多かった。しかし、Discoveryのような人工知能製品を使用すれば、1~2日ですべてのデータを整理できる。最新世代の製品である Discovery 54 では、中国語、日本語、韓国語など複数の東洋言語の読み取り機能も追加され、国境を越えた法律業務における証拠収集能力が大幅に向上しました。自然言語処理(NLP)技術の発展により、この分野の製品がカバーできる言語の種類は増えていきます。

2つ目は訴訟管理です。アメリカの企業 Casetext が特別に開発した Case Analysis Research Assistant (CARA) は、弁護士や企業の法律顧問が判例分析から陪審員の選出、さらには法廷弁論文書の作成に至るまでの一連の作業を完了するのに役立ちます。最終的な成果物は正式な法的文書です。このような文書があれば、弁護士や会社の法定代理人が直接法廷に出廷して訴訟に対応したり、取引を完了したりすることができます。このような製品は米国だけでなく中国でもますます一般的になるだろう。

さらに有名なのが、IBM Watsonプラットフォームをベースに開発された、前述の人工知能製品ROSSです。その主な機能は法的調査を行うことです。法的研究とは、学術的な研究を指すのではなく、法律の専門家であれば必ず行うべき法律、司法解釈、判例の調査・研究を指します。訴訟業務に従事する場合でも、非訴訟業務に従事する場合でも、それに応じた「訴訟戦略」や「取引戦略」を策定するために、法律や判例の勉強に多くの時間を費やす必要があります。法的調査は、伝統的な法律実務の中で最も時間のかかる部分です。 ROSSシステムは、現在アメリカの弁護士が行っている法律調査業務の70%を代替できると言われており、その正確率は90%を超えており、同様の業務を行っているトップレベルのロースクール卒業生の正確率をはるかに上回っています。

もちろん、現在主に法律事務所のパートナーが行っている対人コミュニケーション業務や判断業務は、機械に置き換えることはできません。しかし、ここでの「不可能」とは、技術的に不可能という意味ではなく、人間が機械に代わって判断を下すことを信頼できないという意味です。安心するならば、ロボットは人間の感情を持たないため、実際には人間の審査員よりも正確で公平である可能性がある。アリストテレスはかつて、「法は情熱のない理性である」という有名な言葉を残しています。しかし、人間の意思決定者が感情を完全に排除することは不可能であり、機械は明らかに人間よりも感情のない判断を下す能力に優れています。したがって、ロボットに審査員を務めさせることに抵抗がなければ、ロボットはその仕事を遂行することができ、技術的にも実現可能です。さらに、ロボットが判断した場合、誰が責任を負うのかという責任の問題もあります。このような問題があるため、この判断作業をロボットに引き渡すことは「不可能」です。

ROSS システムは、法的調査を実施できるだけでなく、調査結果に基づいて弁護士が使用するブリーフィング、覚書、その他の文書を生成することもできます。裁判で使用した場合、判決を直接下すことに問題はありません。

この点で先頭に立っているのは、貴州省高級人民法院(以下、貴州省高級法院)である。貴州省高等法院は、上海ベルグデータ株式会社が開発した人工知能製品を使用して判決を直接生成している。人間によるレビューが必要な判決の部分は特別にマークされ、裁判官はこれらのマークされた部分を修正するだけで済みます。これは、今日の人工知能システムが最終判決を直接下すことさえ可能であることを示しており、これはまさに多くの法律専門家、特に現在の法学生が懸念していることです。明らかに、人工知能は多くの法律専門家の仕事を置き換える可能性があります。アメリカのロースクールの卒業生は、司法試験に合格すると、一般的にはジュニア弁護士としてスタートします。パートナーに昇進するには7~10年かかる場合があります。この段階での主な業務は、いわゆるデスクワークである法務調査です。これまで、このような作業には多数の弁護士が長い時間をかけて行っていました。しかし、人工知能製品を購入するアメリカの法律事務所が増えるにつれ、デスクワークや法律調査に従事する弁護士の需要はますます小さくなっていきます。アメリカ法曹協会によると、米国の法科大学院への志願者数は2005年から2015年にかけて40%減少しており、この傾向は続いている。同時に、将来的には、弁護士を雇って自ら法律サービスを提供するのではなく、そのような製品を購入することを選択する企業が増え、法律サービス業界の状況が大きく変化するだろうことも想像できます。これらのショックの 1 つは内部的なものであり、もう 1 つは外部的なものです。内部的には、法律事務所自身が人工知能製品を購入するでしょうし、外部的には、潜在的な顧客も人工知能製品を購入するでしょう。こうした内外からの圧力により、私たちが慣れ親しんでいる弁護士の仕事の場はますます狭まっていくでしょう。

3つ目は契約書の作成とレビューです。契約書の作成と確認は、企業の法律顧問が直面する主要なタスクの 1 つです。現代のビジネスの世界は複雑であるため、このタスクには非常に多くの時間と労力がかかります。アメリカの企業 LawGeex は、ディープラーニング機能を備えた人工知能製品を特別に開発しました。膨大な量の実際の契約を研究することで、特定のコンテキストを組み込んだ高度に洗練された複雑な契約を生成する能力を習得しました。同社が作成する契約書は、契約書テンプレートをコピーしたものよりはるかに優れているだけでなく、多くの経験豊富な企業法務顧問の作品よりも優れています。

未来はここにある

インターネットの初期の頃は、インターネットは人間の自由を大きく拡大し、インターネット上で発言する人々は匿名であるため、インターネットを規制することはできないと一般に信じられていました。当時はこう言われていました。「インターネットで話しているときは、誰もあなたが犬なのか人間なのか分からない。」

将来的には、アプリをダウンロードするだけで、冷蔵庫、洗濯機から照明システム全体まで、家庭内のすべての電化製品を誰もが制御できるようになります。しかし、これは、家庭内の電化製品が常にさまざまな情報をインターネットに送信しているため、自宅で何が起こっているのかを自分では知らないが、他の人は知っている可能性があることを意味します。私は中国・ドイツハイエンドフォーラムに参加したが、参加者の多くはドイツの各省庁の大臣たちだった。彼らの元々の話題はグローバリゼーションと反グローバリゼーションであり、人工知能とはまったく関係がありませんでしたが、ほぼすべてのドイツ人が人工知能の問題について議論しています。彼らは多くのコンセプトを思いつきました。例えば、世界中の冷蔵庫がすべて統合されれば、スーパーマーケットはあなたの家に何が足りないかを知ることができるでしょう。スーパーマーケットは、あなたが何を欠いているかを知っているだけでなく、あなたが家にいるかどうか、冷蔵庫をどのくらいの頻度で使用しているかも知っています。そうすれば、将来のある日、スーパーマーケットはあなたが注文しなくても必要なものを玄関先に直接届けてくれるようになり、それがまさにあなたが必要としているものであることが分かるので、あなたはそれを断らなくなるでしょう。

このような背景から、法律業界は実は非常に不幸な状況にあります。私の意見では、AI は法的な考え方と表面的に非常に類似しているため、AI による置き換えに対して最も脆弱な業界です。世界の 2 大法制度はそれぞれ演繹と帰納の重要性を強調しており、これは人工知能分野の 2 大学派 (記号プログラミングとニューラル ネットワーク) に対応しています。ニューラル ネットワークは、帰納的思考を実現するために膨大な量の人間の経験から学習することができ、ニューラル ネットワークが登場するずっと前から、記号プログラミング手法によって人間の演繹的推論をシミュレートすることができました。

現在、人工知能は人間の脳では把握できない膨大なデータから独自に探索し、ディープラーニングを行うことが可能となっており、経験的帰納法においても人間の脳を超える能力を持っていると言えます。したがって、法律の重点が論理か経験かに関係なく、コンピューターは人間に取って代わることができ、法律専門家は技術的に最も簡単に置き換えられます。しかし同時に、国の意思決定者は基本的にすべて法律の専門家であり、法律の専門家は自分たちが置き換えられることを許さないため、置き換えるのが最も難しいかもしれません。私たちは、人工知能技術が法律に取って代わることを防ぐために、さまざまなルールを設計します。

インターネットビッグデータと人工知能

ビッグデータとは何ですか? ビッグデータは、大量のデータを指すのではなく、大規模なストレージ、分析、および処理テクノロジーを指します。 3 つの意味レベルが含まれます。 1 つ目は物理的なレベルであり、データ生成の速度と多様性、いわゆる第 3 次元に関係します。 2つ目は分析技術のレベルです。ビッグデータ分析技術は、いわゆるデータ融合を迅速に完了し、非構造化データに非常に短い時間で一定の構造を与えることができるため、意思決定と行動のための非常に明確な基準を提供できます。 3つ目は社会レベルです。ビッグデータの意義は、既存のライフスタイル、消費習慣、都市管理、交通管理、医療、教育、科学研究、国家統治など、社会のあらゆる側面を変えてきたことにあります。

主な問題は、それが社会的な対立を激化させる可能性があることです。人工知能時代の到来により、二極化はますます深刻化するだろう。人工知能時代の技術は急速に発展しており、法律は技術の変化とそれがもたらす関連ビジネスモデルに大きく遅れをとっています。

これにより、いくつかの問題が発生します。

まず、個人のプライバシーと自由が極めて脆弱になります。

第二に、従来の製造業やインターネットと直接関係のない他の産業は明らかに不利な立場に置かれます。 AIは人間の生活のあらゆる領域をカバーする技術だからです。インターネット分野に最も早く参入した企業は、その業界の特性上、自然にビッグデータのコントローラーとなり、人工知能のビッグデータへの依存度により、自然に人工知能分野の先駆者となった。

例えば、Google や Baidu は従来、単なる検索エンジン企業とみなされてきましたが、Google や Baidu が蓄積してきたビッグデータを通じて、人工知能やビッグデータから遠く離れていると思われる農業を含むあらゆる産業に参入し始めていることには驚かされます。現在、Google、Baidu、Alibaba はいずれも農業に参入しており、作物にバイオセンサーを設置して、実験室での作業よりも直接的で信頼性の高い植物の成長データを取得することで、農業技術の飛躍的進歩を達成しています。これは仮説ではなく、Google や Alibaba などの企業が実際に行っていることです。

このような例は、人工知能が私たちの思考と関心に値する理由は、まさにそれがすべての伝統的な産業を覆すものであり、単一の分野の問題ではないという点にあることを示しています。現時点で政府が何をすべきかは、深く考えるべき問題だ。

第三に、これらの企業はすでに政府よりも国民(消費者)に関する情報を多く持っているため、スマートシティ、スマート政府、スマート裁判所などを構築することに熱心であり、政府機関も彼らに助けを求めざるを得なくなるかもしれない。前述の通り、現在のスマートコート構築には民間企業が開発した人工知能製品が活用されています。これは実際には公権力と私的権利の境界を曖昧にし、政府が規制すべき対象が政府のパートナー、あるいは実際の管理者にさえなるのです。これにより、憲法、行政法、民法に至るまで、あらゆる法分野において新たな疑問が生じます。

第4に、AI応用技術を習得した企業は、消費者行動データ、政府の意思決定データ、立法データ、裁判所の判決データなど、あらゆるデータをAIで分析し、対策を講じることができます。これらの対策の一部はオフラインでの対人コミュニケーションを必要としますが、他の対策は完全にオンラインでの操作で完了できます。たとえば、Google や Baidu の検索結果ランキング、JD.com、Amazon、Taobao のターゲット商品の推奨などです。これらのランキングは実際にはアルゴリズムによって決定されます。 Google のランキングが米国大統領選挙に影響を与えることは疑いのない事実です。つまり、多くの操作はアルゴリズムとオンライン方式を通じて完了できます。このとき、法律がいつどのように介入するかが問題となる。今後は、明らかに人間の介入がない要素をどのように規制するかについて、法律でさらに検討する必要がある。実際に舞台裏で人間が働いているにもかかわらず、私たちはこの種のオンライン操作の背後にある人的要因に十分な注意を払っていません。

その結果、人々は目に見えない力に「自発的に従う」ことになり、この力は人工知能の超脳力の助けを借りて、法律や規制がそのターゲットを見つけることを不可能にし、さらには彼らを騙しさえするのです。 Facebook の創設者マーク・エリオット・ザッカーバーグの言葉を借りれば、私たちは法律ではなくアルゴリズムが私たちを支配する時代に入りつつあるのです。表面的には、アルゴリズムは法律のような公平性と一般性を欠いており、設計者によって埋め込まれた目的に臆面もなく従っています。現在、世界中の法学者がアルゴリズムの問​​題について議論しています。アルゴリズムは現在ブラックボックスになっており、それを規制したい場合、いつまでもブラックボックスのままにしておくことはできないため、将来的にはこの規制はアルゴリズムの設計レベルに入る必要があります。

第五に、すでに流動性、リスク、不確実性に満ちた金融市場に人工知能が適用されると、革新的な価値も大きな損害もない壊滅的な結果をもたらす可能性があります。 2010年5月6日、米国株式市場でフラッシュクラッシュが発生し、1兆ドルの資産価値が一瞬にして消失し、株価は9パーセント下落し、ダウ工業株30種平均は1,000ポイント下落しました。明らかな人的要因、インサイダー取引、市場操作がなかったため、米国証券取引委員会が何が起こったのかを解明するのに半年を要した。さまざまな投機家のコンピュータープログラムが、お互いの競争中に制御不能になったことが判明しました。高頻度取引と呼ばれる神秘的な世界では、これらのシステムはわずかな利益機会を電光石火の速さで利用し、互いの取引戦略を検出して利用することができます。彼らが戦略的に取引をすると、システムの崩壊につながります。

このような AI 決闘は、株式市場だけでなく、あらゆる投機的な複数当事者のゲーム市場に存在する。事後責任追及の法的対策では、巨額の利益に誘惑されて、人工知能を利用して制御不能な損害をもたらすギャンブルのような行為に従事する人々を防ぐことはできません。

ロボットを規制するための現在の法的慣行

現在、世界中のさまざまな国で人工知能の法律を規制するためのモデルがいくつかあります。

1つ目は人工知能に法人格を与えることであり、これは主に欧州連合(以下、EU)によって行われています。

これは非常に興味深いことです。つまり、EUは自然人と法人に加えて、電子人格と呼ばれる第3の法人を追加することを提案しています。しかし、私の意見では、これは必要ありません。 「電子人間」の概念については、この部分とその後のすべての部分、特に法的責任の問題を議論するときにのみ言及されているため、電子人間は二度と言及されません。たとえば、サイボーグは損害を引き起こします。まず、ロボットには独自の特性がありません。少なくとも今のところ、ロボットが独自の独立した特性を持つことは不可能です。電子人間がお金を稼ぐことができれば、稼いだお金はすべて所有者のものとなるため、電子人間は金銭的に罰せられることはない。第二に、それを刑務所に入れることはできません。刑務所に入れると、実際には所有者の財産権を奪うことになります。したがって、電子人間という概念は意味をなさず、最終的に法的責任を負うのは自然人または法人です。

「電子人間」という概念は、法学者の考え方と非常に一致しています。人工知能主体が出現したため、新たな法人格が創設される必要があります。しかし、法的責任が最終的に履行される場合には、自然人または法人が依然として責任を負う必要があることがわかります。したがって、EU の政治家や法学者はこのモデルを高く評価しているものの、これはあまり成功した立法モデルとは言えません。

2番目の立法例は、ドイツの自動運転車に関する法律です。 2017年5月、ドイツ連邦議会と上院は、高度自動運転車と完全自動運転車を道路上の交通手段として使用できるようにするドイツ道路交通法の改正法案を可決しました。しかし、1968 年の道路交通に関するウィーン条約第 8 条に準拠するために、この法律では、すべての車両は走行中に必ず運転手を乗せなければならないと規定されています。自動運転車の自動化の度合いはレベル0から5に分かれており、レベル4とレベル5では基本的に完全な無人運転を実現できます。自動運転になって初めて本当の意味を持つのです。しかし法律では、自動運転システムが作動しているとき、運転者は読書やインターネットの閲覧に注意をそらすことができるが、システムが要求を発したときに手動制御を再開できる程度の注意力を保っていなければならないと規定されている。また、高度自動運転車や完全自動運転車には運転過程を記録するブラックボックスの搭載が義務付けられ、交通事故に遭わない限りブラックボックスの情報は6カ月間保管されなければならない。自動運転モード作動中に事故が発生した場合、責任は自動車メーカーにあるが、自動運転システムが手動制御を要求する信号を送っていた場合は、責任は自動車の運転手に移る。

この法律が可決される前に、多くの学者や業界の専門家がそれを批判した。例えば、この法律により、ドイツの自動運転車が真の無人運転を実現することは不可能になります。現在生産されている自動運転車の多くは実際にはハンドルが付いていないが、この法律が可決されると、ハンドルのない自動運転車は市場に出回らなくなる。さらに、この新しい法律の下では、運転手は法的責任を回避する方法を知らず、それが自動運転車の商業開発を妨げています。自動運転システムが手動制御を要求したときに、ドライバーは十分な注意力を維持し、緊急事態に対処するために介入する必要があるためです。これは実際にはドライバーに高い要求を課し、他の作業をしているときでも警戒を緩めることができません。

新法では、自動運転車による人身傷害や死亡に対する最大賠償額も1000万ユーロ(約1億元)に引き上げられ、これは従来の最大賠償額の100%増額となる。この補償金はほとんどの場合保険会社が支払うが、保険会社は間違いなく保険料を値上げするだろうし、自動運転車の所有者の負担も増えることになる。ドイツでは、自動運転車が富裕層向けのおもちゃになっている要因は数多くあり、一般の人々はそれを交通手段とはみなさないだろう。

ドイツの立法モデルとは対照的に、2017年9月、米国下院は、まったく異なるアプローチで米国自動運転車法案を可決しました。これは3番目のアイデアです。既存の道路交通規則や事故責任に関する不法行為法の規則を変更するものではなく、憲法と行政法の考え方を活用して、自動運転車の規制における連邦政府と各州の責任を分担し、自動運転車のハードウェア安全基準、ネットワークセキュリティ基準、公衆認識基準の確立における運輸省の具体的な義務と履行スケジュールを明確にします。

第12条はプライバシー保護を強化し、メーカーやディーラーに対し、一連の特定の要件を満たす「プライバシー保護計画」を提案した場合にのみ、自動運転車の供給、販売、輸出入を行うことを義務付けている。この法律では、運輸省が自動運転車に関する技術基準を管理することが義務付けられていますが、運輸省が基準を提案することはありません。関連基準は業界によって提案されます。自動運転車を製造・販売したい者は、プライバシー保護からネットワークセキュリティまで、一連の完全な基準を確立する義務があり、運輸省は最終的なゲートキーパーに過ぎない。これにより、実際に意思決定権が業界に委ねられ、政府と資本に対して業界から極めて高い要求が課せられることになります。テクノロジーを理解していない立法者は、まったく新しい分野で法律を起草する際にいくつかの低レベルの間違いを犯す可能性が高いため、この業界の発展を完全に抑制するからです。

自動運転車の製造業者とユーザーを制約する上記の規制とは異なり、ドイツ運輸大臣によって任命された倫理委員会によって提出された報告書は、4番目のアイデアと言える別のアイデアを示しています。このアプローチでは、アルゴリズムの開発者、またはソフトウェア開発者には、アルゴリズムが人工知能システムの魂であると彼が見るため、問題の核心を把握したと言われる20の非常に具体的な倫理的ガイドラインを含む一連の倫理ルールを遵守する必要があります。たとえば、第7条には、すべての可能な予防措置をとっても、危険が避けられないことが証明されている場合、人間の生活の保護は、法的に保護されたすべての権利と利益の中で最優先事項を持つことを要求しています。したがって、技術的に実行可能な範囲で、システムは、利益が紛争したときに動物や財産への損害を受け入れるようにプログラムする必要があります。同時に、第8条は、より多くの人への害を避けるために1人の人を傷つけるなどの倫理的ジレンマを事前にプログラムされた手順で処理することができず、そのような状況が発生したときに手動処理を要求するためにシステムを設定する必要があると規定しています。したがって、この計画は、規制レベルをアルゴリズムに直接実装し、プログラマーが関連する倫理ルールをアルゴリズムに組み込むことを要求します。

要約する

人工知能によってもたらされた新しいリスクに応じ、イノベーションを保護しながら人間の生活の質を確保するためには、法的開発が次の側面を含める必要がある場合があります。

第一に、既存の法的モデルは、伝統的なコンクリートや擬人化された考え方さえも取り除かれておらず、規制の範囲内に有形のインテリジェントマシンまたはロボットのみが含まれています。しかし、これらの物理ロボットは、人工知能の1つの形式です。実際、それらはすべて、目に見えない、拡散した知性によって制御されています。合成知能と呼ばれるアルゴリズム、ネットワーク、ビッグデータで構成されるこの目に見えない無限の存在は、人工知能の知能です。

第二に、これを達成するために、政府は人工知能の発展への投資を増やし、より多くの人工知能の才能を吸収して、商業部隊に大きく陥ることを避けるために立法、行政、司法活動に参加する必要があります。現在、商業部隊は人工知能の開発において政府をはるかに上回っており、政府は商業組織によって開発されたソフトウェアに大きく依存しなければならないため、政府は現時点で商業組織によって操作される可能性があります。一方では、ますます多くの法律専門家が商業組織に参入し、アルゴリズムの設計に参加できるようにする必要があります。一方、政府自体は、企業が開発した人工知能製品を購入するだけでなく、公共セキュリティ、検察官、および裁判所をすべて装備する必要があります。これは、トップの大学や研究機関がすべて州によって資金提供および管理されているため、わが国では比較的簡単です。これらの才能の大部分が商業組織に奉仕することになった場合、それは社会主義の優位性を反映することに失敗するだけでなく、社会の公共の利益に役立つ人工知能の発展に有害でもあります。

第三に、さまざまな国の既存の立法モデルから判断すると、EUとドイツの民事規則と交通規制を直接修正するという慣行は、事実が不明であり、解決すべき問題が革新を促進したり、市民の権利を保護することは不明である場合になされます。この段階では、より賢明な選択肢は、既存の政府部門を指定して、関連する業界の技術基準、セキュリティ基準、個人データ保護基準の確立を担当することです。ただし、この基準自体は、業界に上から下に課されるべきではなく、業界自体が提案する必要があります。政府は、基準が最終的に渡される場合にのみ機能します。

最後に、自動運転車をプログラミングするためのドイツの倫理規範は望ましいアイデアです。人工知能のコアはアルゴリズムにあるため、アルゴリズムの設計により、インテリジェントマシンの動作が決定されます。しかし、普通の人とほとんどの議員、法執行官、司法担当者にとって、アルゴリズムはブラックボックスであるが、彼らがどのように動作するかを見ることができない。関連するルールの策定アルゴリズム設計者の動作を制約し、プログラマーが疑わしい結果が発生した場合に自然言語のアルゴリズムの設計原則を説明することを要求し、説明責任を告発することは明らかに基本的な解決策です。アルゴリズムが人間によって設計されている限り、それは特定の人間の目的に適合し、自然言語で説明することができます。弁護士はプログラミングを学ぶ必要はありませんが、人工知能の技術的原則を理解する必要があります。言い換えれば、特定の危険を守ったり防止したりすることができたが、その危険をアルゴリズムに防ぐプログラムを書いていなかった場合、関連する責任を負わなければなりません。説明が明確ではないことを説明したり考えたりしたくないことは、単なる言い訳です。

人工知能が人間社会に与える影響の高まりを考えると、人工知能に関する知識は法的知識と同じように普及すべきであることを提案します。ただし、AIの知識が法的知識と同じくらい一般的になる前に、暫定的なアプローチは、紛争解決ではなくリスク防止に基づいて関連する規則の設計と実装に対処するために、関連分野およ​​び法律専門家の専門家で構成される倫理委員会または「AI裁判所」を設立することです。つまり、現在は法律に陥るには時期尚早かもしれませんが、関連する議論と正式な公共政策の議論は議題に含まれるべきです。

<<:  「アルゴリズムとデータ構造」トライ木の美しさ

>>:  IT 労働者の皆さん、AI があなたの仕事を「奪う」ためにやって来ています!今回はデータセンターからスタートします

ブログ    
ブログ    

推薦する

機械学習における 5 つのよくある問題点とその解決方法

[[394332]]機械学習のさまざまな使用例について聞いたことがあるかもしれません。たとえば、カン...

FPSからRTSまで、ゲーム人工知能におけるディープラーニングアルゴリズムの概要記事

この論文では、ビデオゲームをプレイするためのディープラーニングアルゴリズムをレビューし、さまざまな種...

クレイジーすぎる、GPTsがオンライン:ウルトラマンがマスクの大型模型の手こすりを披露、誰かがサードパーティのマーケットを作った

数日前の開発者会議で、OpenAIは、メンバーシップを購入すれば、GPT-4大規模モデルの新バージョ...

クラウドベースのAIモバイルアプリケーションは今後も成長し、改善され続けるだろう

近年、モバイルラーニングと人工知能は、人々が機械と連携する方法に大きな影響を与えており、個々の顧客に...

最も偽のGANモデル! Facebook、史上最強の移行機能を備えたIC-GANをリリース

[[425904]] GAN モデルは優れていますが、トレーニング データに対する要件が高すぎるため...

OpenAI は機械学習をサポートするために k8s を 7,500 ノードに拡張

GPT-3、CLIP、DALL+などの大規模モデルのニーズや、ニューラル言語モデルに似たスケーリング...

海外の研究者がAIを使って生体認証を欺く顔を生成

海外メディアによると、イスラエルのテルアビブ大学の研究者らは最近、画像生成システムStyleGANを...

AIが認知症患者の自立した生活にどのように役立つか

[[279905]]写真はインターネットから照明や音楽を Alexa や Siri などの音声制御テ...

ChatGPT 1 周年、Altman が OpenAI に復帰!帰国の内幕を明かすイリヤの所在はまだ不明

ChatGPT の 1 周年に、OpenAI は公式発表を行いました: Sam Altman が O...

オピニオン:ソーシャルロボットはニューノーマルの中で急速に発展している

ロボットは新しい常態の中で私たちの生活を変えています。たとえば、ソーシャルロボットには、感情療法、認...

2020年に注目すべき10のAIトレンド

来年、AI テクノロジーと市場はどのように進化するのでしょうか? 主要な AI トレンドとしては、エ...

Google 研究者: AI が優秀すぎて「ラインを落とした」

数日前、人工知能の分野でほとんどブラックユーモアとも言えるニュースが発表された。Google のエン...

AIが人間社会に与える影響

今後 25 年間は、既存の制御可能かつプログラム可能ないわゆる「人工知能」を活用して、人類が生物学の...

...