知能の哲学: 人工知能の倫理的問題 (有益な AI)

知能の哲学: 人工知能の倫理的問題 (有益な AI)

伝統的な人間中心の単純な倫理観は、人工知能の急速な発展によって脅かされています。哲学者、人類学者、倫理学者がまだ沈黙している一方で、第一線の科学者は「アシロマ人工知能原則」、つまり「人々と人類に利益をもたらす人工知能」(有益なAI)という便利な答えを出しました。人類の不確かな未来は、依然として消えない影です。キリスト教の「世界の終わり」の予言から、「神は死んだ」(ニーチェ)、「人間は死んだ」(フーコー)という西洋の非合理的な思想、そして今日の「人類の終わり」についての推測まで、それはますます大きな足音のようです。私たちの文化と文明は、新しい超越的な倫理に生まれ変わることができるでしょうか?

2017年1月に米国カリフォルニア州アシロマで開催された2017アシロマ会議では、人工知能とロボットの急速な発展に対する深い懸念に基づき、人工知能とロボット工学の分野の専門家844名が共同で「アシロマAI原則」に署名し、世界中の人工知能分野に対し、これらの原則を遵守し、人類の将来の利益と安全を共同で守るよう呼びかけました。

AIやロボットの発達が人間の地位や価値に与える影響についての懸念は古くからある。それより少し前の2014年には、Skypeの共同設立者ヤーン・タリン氏、MIT教授マックス・テグマーク氏、物理学者スティーブン・ホーキング氏、SpaceXおよびテスラモーターズ創設者イーロン・マスク氏、オックスフォード大学未来人類研究所所長ニック・ボストロム氏、MITデジタルビジネスセンター所長エリック・ブリニョルフソン氏、ハーバード大学遺伝学教授ジョージ・チャーチ氏、MIT物理学教授アラン・グース氏、さらにケンブリッジ大学とカリフォルニア大学バークレー校の人工知能の専門家や教授らがボランティアとして未来生命研究所(FLI)を設立した。

2015 年 1 月 11 日、彼らは公開書簡「堅牢で有益な人工知能のための研究の優先事項: 公開書簡」(http://futureoflife.org/static/data/documents/research_priorities.pdf) を発表し、「私たちの AI システムは、私たちが望むことを実行する必要があります」、つまり「有益な AI」というスローガンを提案しました。このような問題に高い関心が寄せられたことは、これまでも業界内外から広く注目され、真剣な議論や行動が起こされてきました。たとえば、AAAI 2008-09 長期 AI の未来に関する大統領パネル、長期 AI の未来に関するアシロマ会議、人々と社会に利益をもたらす人工知能に関するパートナーシップなどです。さらにそれ以前の 1940 年代、物理的なロボットが登場する前は、SF 作家アイザック アシモフの有名な「ロボット工学 3 原則」と、それに続くさまざまな補足原則がありました。

法則 Ⅰ: ロボットは人間を傷つけたり、不作為により人間が危害を受けることを許してはならない。 法則 1: ロボットは人間を傷つけたり、不作為により人間が危害を受けることを許してはならない。

法則Ⅱ:ロボットは、第一法則に反する場合を除き、人間からの命令に従わなければならない。

法則Ⅲ:ロボットは、第一法則または第二法則に反しない限り、自身の存在を守らなければならない。

これら3つの法則は、実際には機械が人間に従うことを機械の設計と製造の原則としており、「自律性」や自己認識さえも備えた高度な人工知能の問題は考慮していません。「高度に自律的なAIシステム」、いわゆる「強いAI」や「人工汎用知能」(AGI)がドアをノックしているように見える今、人間はどのように対応すべきでしょうか。

「アシロマ原則」は、実は、AI とロボットの発展が人類に及ぼす計り知れない影響について懸念するすべての人々の長期にわたる観察と思考を凝縮した表現です。より深い意味では、これは、不在の哲学者、人類学者、倫理学者に代わる科学者による、人間自身の性質、地位、価値に関する真剣な考察と見ることができます。

1. アシロマAI原則

研究課題

1) 研究目標: AI 研究の目標は、無目的な知能ではなく、有益な知能を生み出すことです。

研究目的: 人工知能研究の目標は、(人間によって)制御できない知能ではなく、(人間にとって)有益な知能を生み出すことであるべきです。

2) 研究資金: AIへの投資には、コンピュータサイエンス、経済学、法律、倫理学、社会学における次のような難しい問題を含む、AIの有益な使用を確保するための研究への資金提供が伴う必要があります。

研究資金: AI 投資の資金の一部は、次のようなコンピューター サイエンス、経済学、法律、倫理、社会調査における厄介な問題を含む、AI の有益な使用を確保する方法の研究に充てられる必要があります。

  • 将来の AI システムを、誤動作やハッキングを受けることなく、望みどおりに動作するように、非常に堅牢なものにするにはどうすればよいでしょうか。

将来の AI システムを、私たちが望む通りに動作し、故障したりハッキングされたりしない、非常に健全な(「堅牢な」)ものにするにはどうすればよいでしょうか。

  • 人々の資源と目的を維持しながら、自動化を通じてどのように繁栄を拡大できるでしょうか?

人材と意志を維持しながら、自動化によって繁栄を高めるにはどうすればよいでしょうか。

  • 法制度をより公平かつ効率的に更新し、AI に追いつき、AI に関連するリスクを管理するにはどうすればよいでしょうか。

法制度をより公平かつ効率的に改善し、人工知能の発展に対応し、人工知能がもたらすリスクを制御するにはどうすればよいでしょうか。

  • AI はどのような価値観に沿っているべきでしょうか。また、どのような法的、倫理的地位を持つべきでしょうか。

人工知能はどのような価値体系に属するべきでしょうか?どのような法的、倫理的地位を持つべきでしょうか?

3) 科学と政策の連携: AI 研究者と政策立案者の間で建設的で健全な交流が行われるべきです。

科学と政策のつながり: AI 研究者と政策立案者の間で建設的で有益な交流が行われるべきです。

4) 研究文化: AI の研究者と開発者の間で協力、信頼、透明性の文化を育む必要があります。

研究文化: AI 研究者と開発者の間で、協力、信頼、透明性の人間的な文化を育む必要があります。

5) 競争回避: AI システムを開発するチームは、安全基準の省略を避けるために積極的に協力する必要があります。

競争を避ける: AI システム開発チームは、安全基準の抜け穴を避けるために積極的に協力する必要があります。

倫理と価値観

6) 安全性: AI システムは、運用期間中、安全かつセキュアである必要があり、適用可能かつ実行可能な場合は検証可能でなければなりません。

安全性: AI システムは運用全体を通じて安全で信頼性が高く、適用性と実現可能性が検証される必要があります。

7) 障害の透明性: AI システムが損害を引き起こした場合、その理由を突き止めることができる必要があります。

障害の透明性: AI システムが損害を引き起こした場合、その損害の原因を特定できる必要があります。

8) 司法の透明性: 司法上の意思決定に自律システムが関与する場合は、有能な人間機関によって監査可能な十分な説明が提供されるべきである。

司法の透明性: 自動化システムによって下される司法上の決定は、関連分野の専門家が受け入れられる十分な司法上の説明を提供する必要があります。

9) 責任: 高度な AI システムの設計者と構築者は、その使用、誤用、および行動の道徳的影響の利害関係者であり、それらの影響を形作る責任と機会を持ちます。

責任: 高度な AI システムの設計者と構築者は、AI の使用、誤用、動作の倫理的影響に関与しており、それらの倫理的影響を形作る責任と機会を有します。

10) 価値観の整合: 高度に自律的な AI システムは、その運用全体を通じてその目標と動作が人間の価値観と一致するように設計する必要があります。

価値の帰属: 高度に自律的な AI システムの設計では、その目標と動作が運用全体を通じて人間の価値観と一致していることを保証する必要があります。

11) 人間の価値観: AI システムは、人間の尊厳、権利、自由、文化的多様性の理想と両立するように設計および運用される必要があります。

人間の価値観: AI システムは、人間の尊厳、権利、自由、文化的多様性の理想と一致するように設計および運用される必要があります。

12) 個人のプライバシー: AI システムがデータを分析し活用する力を持っていることを考慮すると、人々は自分が生成したデータにアクセスし、管理し、制御する権利を持つべきです。

個人のプライバシー: AI システムにデータの分析と使用の能力を与える一方で、人々は AI システムが生成するデータにアクセスし、管理し、制御する権利を持つ必要があります。

13) 自由とプライバシー: 個人データへの AI の適用は、人々の実際の自由または認識された自由を不当に制限してはならない。

自由とプライバシー: 個人データへの AI の適用によって、人々の実際の自由または認識された自由が不当に奪われることがあってはなりません。

14) 利益の共有: AI テクノロジーは、できるだけ多くの人々に利益をもたらし、力を与える必要があります。

利益の共有: AI テクノロジーは、できるだけ多くの人々に利益をもたらし、役立つものでなければなりません。

15) 繁栄の共有: AI によって生み出される経済的繁栄は、全人類に利益をもたらすために広く共有されるべきです。

繁栄の共有: AI によって生み出される経済的繁栄は広く共有され、全人類に利益をもたらすべきです。

16) 人間の制御: 人間が選択した目的を達成するために、人間は AI システムに決定を委任するかどうか、また委任方法を選択する必要があります。

人間による制御: 人間が選択した目標を AI システムが達成できるようにするかどうか、また達成できるようにする方法を人間が選択する必要があります。

17) 非破壊的行為: 高度な AI システムの制御によって付与される力は、社会の健全性を支える社会的プロセスや市民的プロセスを破壊するのではなく、尊重し、改善するものであるべきです。

非破壊的: 高度な AI は、健全な社会が依存する社会的および市民的秩序を破壊するのではなく、尊重し、改善する権限を与えられるべきです。

18) AI軍拡競争: 致死的な自律型兵器の軍拡競争は避けるべきである。

AI 軍拡競争: 致死的な自律型兵器の軍拡競争は避けるべきです。

長期的な問題

19) 能力に関する注意: コンセンサスが得られていないため、将来の AI 能力の上限に関して強い仮定を立てることは避けるべきです。

能力に関する注意: 将来の AI 能力の上限について過度に高い想定をすることは避けるべきですが、これについてはコンセンサスがありません。

20) 重要性: 高度な AI は地球上の生命の歴史に大きな変化をもたらす可能性があり、それに見合った注意とリソースをかけて計画し、管理する必要があります。

重要性: 高度な AI は地球上の生命の歴史に大きな変化をもたらす可能性があり、人類はそれに応じて計画し管理するための懸念とリソースを持つ必要があります。

21) リスク: AI システムによってもたらされるリスク、特に壊滅的または実存的リスクについては、予想される影響に応じた計画と軽減の取り組みを実施する必要があります。

リスク: AI システムによってもたらされるリスク、特に壊滅的または実存的なリスクには、予測可能な影響を軽減するための的を絞った計画と取り組みが必要です。

22) 再帰的な自己改善: 品質や量の急速な増加につながるような方法で再帰的に自己改善または自己複製するように設計された AI システムには、厳格な安全および管理措置が適用される必要があります。

再帰的な自己改善: 品質や量が急速に増加する方法で再帰的に自己改善または自己複製するように設計された AI システムには、厳格な安全性と制御の基準が適用される必要があります。

23) 公益: スーパーインテリジェンスは、広く共有されている倫理的理想のために、そして一つの国家や組織のためではなく、全人類の利益のためにのみ開発されるべきである。

公共の利益: スーパーインテリジェンスは、単一の国や組織の利益のためではなく、広く共有されている倫理概念に役立ち、全人類の利益のために開発されます。

II. 人間の道徳的・倫理的尊厳

老子の『道徳経』とアリストテレスの『ニコマコス倫理学』(ニコマコス倫理学)は、人類が自らの存在と社会の生存について抱く深い思想を体現している。この単純な人間性意識において、人間は常に自分が世界で唯一の自意識を持つ無意識の人間であることを自覚している。「人間中心主義」、特に狭義の「強い人間中心主義」は広く議論され、批判されてきたが、人間の価値と地位の統一に基づく「人間は万物の尺度である」(プロタゴラス)と「人間は自然のために法則を作る」(カント)という単純な概念は、常に人間と人類の尊厳を保ってきたが、この古代の信仰は今日危機に直面している。

経験科学が世界とは何か、世界がどうなっているかを研究するのに対し、倫理学は社会がどうなっているか、人間はどうあるべきかを研究する。この2つの学問は、これまでずっと「科学」と「人文科学」(いわゆる「2つの文化」)という2大分野の中で最も代表的な学問であった。しかし、科学研究の分野で急速に出現し発展してきたコンピュータ、人工知能、ロボットの特性は、必然的に人間の倫理の中核概念を侵食するものとなってきた。機械が人間の知性や人間の特性を「持っている」かのように見える。人間社会の発展自体によって「人」の尊厳と地位が揺るがされていると言っても過言ではない。この倫理的な意味で、AIとロボットの倫理的問題は今日、すべての人の注目の的となっている。

倫理の核となる概念は、人間の社会的行動です。倫理的行動は実践的な道徳哲学です。AI とロボットの倫理的懸念は、実際には人間の倫理の本質を超越する深いレベルにあります。

(1)人々(研究者や開発者)は、自分たちが研究、製造、開発するAIやロボットに、人間の伝統的な道徳的・倫理的信念をどのように実装し、人間の倫理原則に従う、あるいは持つようにするのか?

(2)人間にはこれを実行する超越的な能力があるか?

3. AI やロボットには、それらを支配する物理法則に基づいた倫理規範があるのでしょうか? さらに、いわゆる「SF モデル」の人工超知能 (ASI) について、そのような倫理的な質問をすることはできるのでしょうか?

このような複雑で想像もできない状況では、さらに次のことを問わなければなりません。機械には道徳的、非道徳的、または非道徳的な問題があるのでしょうか。これは人間の問題なのでしょうか、AI やロボットの問題なのでしょうか、それとも「私たち」が共有する問題なのでしょうか。このように想像し続けると、機械が人間をシミュレートしたり、人間とは異なる独自の性質を持ったり、独自の思想家や哲学者を持つようになる日が来るかもしれません。彼らは人間のような人間なのでしょうか、それとも逆に、私たちは人間のサブクラスにすぎないのでしょうか。

私たちがこの「人間階級」あるいは「階級生活」の主体として自分自身を超越するまでは、これらの問題を実質的に想像することはできませんし、想像するつもりもありません。今最も緊急な問題は、AI やロボットに道徳心を与える能力が私たちにはあるかどうかです。神が人間を創造したときに罪から解放できなかったのと同じように、私たちは神の能力を超えるようなこの能力を持つことができるのでしょうか。

私たちは、すでに持っている人間の倫理観に基づいてのみ探求することができます。この意味で、私たちは人間の倫理観しか持っていません。この観点からすると、私たちのすべての関心、考え、行動は人間の倫理です。この意味で、有益なAIとは機械の道徳や倫理ではなく、AIやロボットの研究開発における人間の倫理原則に過ぎません。人間が機械に人間の倫理原則を伝えることができるかどうかは不確かな問題です。今日私たちにできることは、私たち人間の倫理的最低ラインに固執することです。したがって、「アシロマ人工知能原則」は人間の道徳的呼びかけであり、人間の危機意識です。この意味で、「アシロマ人工知能原則」は人間の尊厳の体現です。

3. 人間と機械の倫理的関係: 有益なAI

「アシロマ人工知能原則」には、人間の倫理精神と原則が随所に実践されています。有益なAIは「人間と人類のためのAI」と解釈できます。したがって、「アシロマ人工知能原則」は、世界の激変の中で古代の人間の倫理精神を目覚めさせることであり、激変と世界の中にある人々の地位と尊厳を守るための努力です。「アシロマ人工知能原則」は主に以下の項目に反映されています。

項目 1「研究目的」では、人工知能研究の目的は、人間に奉仕し、人間によって制御される AI やロボットを作成することであるという原則を定義しています。この原則は、人間と機械の間の倫理的な保証であり、この保証は、研究者や開発者の倫理意識によって初めて反映され、遵守されるため、項目 16「人間の制御」には深い期待が表明されています。

項目2「研究資金」における人材、意志、価値観の前提条件の保全と保護。

項目10「価値の帰属」、項目11「人間の価値」、そして機械から人間への価値の帰属をさらに向上させることが、高度な人工知能の設計原則です。

項目 9「責任」では、人間と機械の倫理的関係を研究者の明確な責任として位置付けています。項目 12「個人のプライバシー」と 13「自由とプライバシー」では、人間の尊厳を体現しています。

6項「安全性」は、研究作業において機械が人を保護するための条件です。7項「障害透明性」と8項「法的透明性」は、人々の研究開発の既存の作業システムと法的システムに対する要件です。

項目 14「利益の共有」、項目 15「共通の繁栄」、項目 17「非転覆」、および項目 18「人工知能の軍拡競争」は、人工知能研究の分野における人類社会の倫理原則を具体化したものです。

上記の内容はすべて、人間と人間の本質に対する理解に基づく人間と機械の倫理的関係に基づいています。「アシロマ人工知能原則」の最後の23の「公共の利益」には「超知能」も含まれていますが、これは依然として全人類の全体的な利益、つまり人間の価値と利益のための人工知能(有益なAI)と見なされています。人間の倫理的地位を維持するというこの前提は、人工知能の分野でさまざまなレベルで繰り返し述べられてきました。それは人間の道徳と人間の尊厳の単純さに基づいています。しかし、人間の発展の中で生み出され、「自然」や人間自体とは異なる機械や人工知能の性質と倫理的地位は正確には何ですか?それはまだ不確かな問題です。

4. 不確かな未来

最も混乱を招く質問は、「人間の知能よりも高度な「人工知能」は存在するのか?」ということです。いわゆる「高度な人工知能」、「汎用人工知能」または「強力な人工知能」(Artificial General Intelligence、AGI)は、この意味を指します。アシロマ AI 原則の 19 番目の項目「能力の警戒」で認識されているものの、確認されていない難しさは、言い換えると、「人間と人工知能の関係において、人間と機械のこの倫理的関係は、私たちの基本的な信念に基づいて存在するのか」という問いです。すべては、「人間とは何か」という最も古い哲学的な問いに帰着するようです。

これまでのところ、人工知能の実体はすべて物理法則に基づいています。物理的な実体が倫理原則に従うかどうかは疑問の余地がありません。しかし、物理的な実体に基づく人工知能と生命体に基づく人間の知能の本質的な違いは何でしょうか? これは常に人類の知識理論における最も難しい問題でした。人々は常に答えを待っていますが、今日、人工知能の倫理的問題は科学者に答えを与えることを余儀なくさせました。「アシロマ人工知能原則」にもかかわらず、これはまだ一時的な解決策にすぎません。しかし、おそらく、私たちは永遠にこのような一時的な解決策しか持っていないでしょう。

これまで、哲学者や科学者は、人間の「知性」とは何かという問いに答えられず、知性と意識の関係も理解できていない。もちろん、人工知能とは何かという問いに明確に答えることは不可能だ。もしAIやロボットが独立した意識を持たないなら、AIはいつまでも人間の意味や価値の従属者であり、そこには人間の悪徳も含まれる。だから、SF映画で人工知能が人間に対して犯す犯罪は、人間の罪の模倣に過ぎないことがわかる。未来のロボット世界が人類を滅ぼす可能性を懸念するなら、人間社会がなぜいまだにこれほど多くの自業自得の不幸を抱えているのかを改めて考えてみるのもいいだろう。

高度な人工知能が人間とは異なる「知能」を持つということは、人間とは異なる意味や価値を持つということだ。人間はそれをどうやって「理解」できるのか。そのため、哲学者、人類学者、倫理学者は、人工知能の急激な波を前に沈黙せざるを得ない。

人類史上最初の哲学者も科学者でした。古代ギリシャ人は科学、哲学、宗教、倫理的問題を混ぜ合わせて議論することができました。宗教には倫理の本質があります。歴史的に、社会現実における倫理的問題は主に宗教が担ってきましたが、宗教は人々の倫理的問題に答えることはなく、人々の究極の倫理的問題を神に委ねただけです。宗教の究極の目標は、世俗の人々から神の人格への移行です。したがって、宗教は最終的に世俗世界を対象とした倫理に取って代わることはできません。人間の知識の豊かさと征服と変革の野心は、神の底線に挑戦し、人間の存在の尊厳を脅かしてきました。

「神は死んだ」(ニーチェ)、「人間は死んだ」(フーコー)、そして今日の「人類の終焉」に関する憶測は、科学者に再び倫理学者の役割を強いています。科学者は人間と機械の倫理的関係を神に委ねることはできません。機械には原罪はありませんが、人間には知性があります。かつては、神の「創造」に加えて、人間は「学習」できると言っていましたが、今では「人間の「学習」に加えて、機械は「模倣」することしかできない」とは言えません。機械も「学習」できるようになった今、「人間」には他に何があるのでしょうか?「理性」自体には他に何があるのでしょうか?このような疑問は、確実性と客観性を誇る科学的合理性のどうしようもない皮肉になっています。

5. 中国思想からの啓蒙

デカルトは「我思う、故に我あり」と言った。これは実は近代以降の科学的合理性の懐疑的・批判的精神に基づく世界や人間自身に対する科学的態度である。つまり科学的説明というよりは、一二元論の主観的世界の、自分を含む客観世界に対する主観的態度である。しかもこの主観的態度は、「我思う」と「我あり」の因果関係、論理的関係、規則的関係などとはイコールではない。物理学、生理学、心理学など関連分野で無数の研究成果があっても、その客観性が意識の主観性となることを説明することは不可能である。したがって、西洋文化は超越的かつ一元論的な神なしにはあり得ない。

これらを超えて、思考や意識そのものを除けば、「思考」を外部から観察する方法はなく、私たちは「思考」を直観したり、意識したり、「思考」について考えたりすることしかできません。観測不可能な「量子状態」に関する量子力学のような理解しにくい概念はないが、中国哲学や中国思想は一貫して、「思考」が主体の内なる(内なる「心」)性質に反映する超越性が、無限かつ無制限な「思考」の本質であると主張してきた。この本質があって初めて、私たちは人間の「知性」を理解する道に入ることができる。

したがって、たとえ高度な、あるいは飛躍的な人工知能が存在したとしても、それは「思考」などの自己超越的な「行動」を通じて、時間の中で「存在」する意味を持たなければならない。中国文化によって育まれた中国思想自体が、この固有の時間性を持っている。

「中国思想とは、中国文化の真髄であるダイナミックまたはクリエイティブな核心を指します。ここでの思想とは、人々の思想のダイナミックまたはクリエイティブな性質を指します。それは精神活動の真の過程です。」 「中国思想には独自の存在論的意味があります。一般的な思想の研究とは異なります。表現する内容の特徴や性質を研究するのではなく、特定の思想の生成と発展を指すものでもありません。その代わりに、ダイナミックな本質としての思想自体の存在論的存在過程を指します。」

「中国思想は歴史と現実に根ざしている。歴史的使命と現実の責任は、儒教文化の自覚の生命である。この意味で、中国思想は自らの主体性を実現した」; 「中国思想の成果は、万物の自然化の調和のとれた統一である。思想目標としては、それは単なる幻想の絵に過ぎない。この目標のいかなる固化も思想の死である。一無の教義はこの状況を描写したものである。老子の無の教義は思想の究極である。統一は究極の統一であり、統一の始まりである。究極の統一として、すべての違い、個性、分裂、対立は消えるが、これは究極の死ではない。道の究極の統一は、この世の終わりではない。易は自性の再生であり、一は易である。したがって、一は万物の変化の源の混沌であり、天地の母であり、無から何かが生まれる。これが一の超越的な道である。」

「中国思想の本質は形式化できず、したがって現実世界に対する究極の支配力を獲得することはできない。究極的には自由であるが、究極的には無力でもある。」 「この運命はまさに中国思想自体のジレンマである。中国思想は独自の体を必要とするが、その中で固まることはできない。易の形式と同様に、易の中でのみ結合され、結合して初めて易となる。」

<<:  AI作曲家の出現により、人類はどこへ向かうべきでしょうか?

>>:  美団点評におけるディープラーニングの応用

ブログ    
ブログ    

推薦する

Baidu が公式発表: 自動運転車は 2018 年に量産開始予定!

たった今、百度が公式発表しました。自動運転車は2018年に量産される予定です。 Subversion...

AIアーキテクトとはどのような人達でしょうか?

アシュトーシュ・グプタ翻訳者: ブガッティ企画丨孫淑娥亮策要するに:人工知能 (AI) プロジェクト...

人工知能が将来の経済と社会に与える影響を理解する方法

[[353152]]人工知能は新興の破壊的技術として、科学技術革命と産業変化によって蓄積された膨大な...

SFから現実へ:人間のデジタルツインの旅

サイエンス フィクションの世界では、デジタル ツインの概念は長い間定番であり、作家たちは、人間が操作...

TCP のこと 1: TCP プロトコル、アルゴリズム、原理

TCP は、多くの問題を解決する必要があり、これらの問題により多くのサブ問題とダークサイドが引き起こ...

AIチャットボットが保険業界に革命を起こす

[[398082]]時代遅れのレガシープロセスを考慮すると、保険事業とテクノロジーの融合は水と油のよ...

...

新たな勢力が市場に参入、コンパイラーの巨匠クリス・ラトナーが自らのビジネスを始める

「私たちのチームは、世界最大かつ最先端のテクノロジー企業出身者で構成されています。世界クラスの才能あ...

概念から応用まで、人工知能の可能性

現在、AI の最大の可能性は、回帰や分類などの分析技術にあることが知られています。ニューラル ネット...

AIとMLでドキュメントを自動化する方法

[[312937]] [51CTO.com クイック翻訳] かつて紙は必須の事務用品とみなされ、ほと...

...

...

烏鎮百度脳オープンデーが開催、EasyDL業界インテリジェンスイノベーションコンペティションを開始

顔認識技術はAI時代に利便性をもたらすだけでなく、効率も向上させます。 8月21日、百度ブレインオー...

人工知能技術はビッグデータに基づいていますか?

[[201662]]今や、AI やロボットが徐々に人間の仕事に取って代わる時代になりました。知らな...