科学技術倫理とは、科学技術活動において遵守すべき価値観や行動規範であり、科学技術の発展にとって極めて重要なものです。 7月28日、我が国の科学技術部は、人工知能の倫理ガバナンスを強化し、人工知能のより標準化された発展を促進するために、「科学技術倫理ガバナンスの強化に関する指導意見(意見募集稿)」に対する意見を公募し、我が国の人工知能における倫理的法治の構築の基礎を築きました。
人工知能は倫理的なジレンマに直面近年、人工知能の開発はますます熱を帯びてきており、人工知能産業そのものに加え、自動運転、顔認識、ロボット、スマートスピーカーなど、その技術によって可能になった産業も活況を呈しています。人工知能の発展は人々の生産と生活に恩恵をもたらしましたが、同時に、繁栄の裏には隠れたリスクもあります。人工知能は諸刃の剣であり、人類の生存に影響を及ぼすだけでなく、倫理や道徳にも課題をもたらします。 日常のアプリケーションでは、人工知能に関するさまざまな悪いニュースをよく耳にします。例えば、2018年には「ノーマン」という名の人工知能が、その異常な「思考と認知」により人々にひどい印象を残しました。この人工知能は一時「サイコパス」とさえ呼ばれました。さらに2019年には、人間に自分の心臓を刺すようそそのかすAI音声アシスタントが英国で登場し、ぞっとするような回答が不気味だった。 人工知能は主にデータ学習に基づいて進化するため、人間の否定的な感情や否定的なデータが人工知能に影響を与えることは避けられません。これらのネガティブなものが人工知能の作成に利用されることを許せば、結果として得られるテクノロジーは必然的に人類に大きなネガティブな影響を及ぼすことになるでしょう。これが、人工知能において倫理的な課題が生じる主な理由の 1 つです。もちろん、研究者や開発者の倫理が AI の倫理に影響を与えることに加え、テクノロジー自体も別の理由です。 自動運転の分野では、「トロッコ問題」という有名な話があります。これは、5人の罪のない人々をトロッコの線路に縛り付けた狂人の話です。制御不能になったトロッコが5人に向かって進み、一瞬のうちに彼らを押しつぶしてしまうのです。この時点でレバーを引いてトロリーを別の線路に移動させることができますが、その線路には人も縛られています。この場合、レバーを引くべきかどうかを尋ねます。 明らかに、これは既存の自動運転や人工知能技術では答えられない倫理的な問題です。技術の発展においては、倫理は時として身体にしっかりと縛り付けられた足かせのようなもので、決定的な鍵を見つけない限り逃れることは基本的に困難です。しかし、「自由に踊る」ためには、束縛を解き、手を自由にしなければなりません。そのためには、法の支配の構築を通じて、その「鍵」を作り出すことが必要です。 法的解釈は倫理的束縛から解放される現在、世界中の政府は人工知能がもたらす倫理的な課題にますます注目するようになっています。 2017年以来、世界中の多くの国や地域では、人工知能に関する倫理的・法的システムの構築を強化するための一連の政策が導入されたり、導入の準備が進められています。例えば、2017年に米国は人工知能に関する14の政策ガイドラインを公布し、2018年には欧州連合が一般データ保護規則を発行し、韓国もロボット倫理憲章を開始しました... 我が国では、人工知能の倫理的な構築も秩序正しく行われています。中国政府は2017年7月に「新世代人工知能開発計画」を発表し、2025年までに人工知能のセキュリティ評価と管理能力を形成するために人工知能に関する法律、規制、倫理規範、政策の予備的なシステムを確立する必要があると明確に述べました。 2030年までに、人工知能に関するより完全な法制度、倫理規範、政策システムが確立されるでしょう。 同時に、工業情報化部は「人工知能の革新と発展に関する道徳倫理宣言」も発表し、人工知能の発展は常に人類の利益を目的とすべきであり、人工知能の自律的な意識は人間特有の自由意志と同一視することはできず、人工知能が人間によって創造されたという事実は変えられないと規定している。多くの分野の企業も倫理的な配慮を強化し、責任と意識を高め、規制とガバナンスを強化する動きを積極的に進めています。 もちろん、我が国の科学技術部は最近、「科学技術倫理ガバナンスの強化に関する指導意見(意見募集草案)」について再度意見を募集しましたが、これは間違いなく「科学技術倫理ガバナンスシステムの改善」と「科学技術倫理システムの改善」に向けた最も確実な一歩です。 「意見」は、科学技術倫理の統治を基本要求、統治原則、統治システム、統治体制、審査・監督、教育・宣伝などの面から総合的に規制し、将来の成熟した健全で良好な発展の基礎を築いた。 ルールがなければ秩序は生まれません。人工知能の研究開発と応用に関して、人類の利益と道徳基準に沿った完全な倫理規範と法制度を策定することによってのみ、人工知能の持続可能な発展と人類の生存権と安全を確保することができます。さまざまなネガティブな人工知能は、人工知能が善か悪かを決めるのは人間の影響であるということを何度も証明してきました。ツールを制御することよりも、人間を制御することの方がはるかに重要です。 |
<<: DeepMind と Google がまた大きな動きを見せました!ニューラルネットワークを使用して NP 困難な MIP 問題を解く
>>: 200日!上海の18歳の高校生が、250行のPythonコードで「魂を注入」したロボットを自作した。
近年、人工知能がブームを迎えており、人々は合理的な分析と思考を通じて、人工知能の波をどのように利用し...
この日が来ることは誰もが知っていた!しかし、こんなに早く来るとは誰も予想していませんでした! 201...
[[336572]]この記事では、H2o.ai フレームワークを使用した機械学習を使用して R 言語...
近年、世界的な工業化の加速を背景に、製造業、建設業、化学業などの産業を中心に労働災害や死亡者数が増加...
[[349350]] 10月29日、北京亦荘イノベーション発表体験研究イベントで記者らが自動運転タク...
[[188605]] Numpy は Python 科学計算のコアライブラリの 1 つであり、主に多...
自動運転技術は常に注目を集めてきたが、「幻滅」に直面している。これによって起きた初の交通事故死は、1...
コードを書くのは少し憂鬱になるので、色に囲まれる必要があります自己規律や自己学習という言葉を軽く受け...
AI チャットボットは、自然言語処理と機械学習を使用してユーザーとの人間の会話をシミュレートするソフ...
1. 信用リスク管理業務の背景と事例まず、当社の事業シナリオについて簡単にご紹介させていただきます。...