人工知能における多様性と不確実性: 世界中の 2,778 人の AI 専門家を対象とした調査の解釈

人工知能における多様性と不確実性: 世界中の 2,778 人の AI 専門家を対象とした調査の解釈

人工知能は社会を変えようとしています。民間企業、学界、政府を問わず、国レベルおよび国際レベルを問わず、あらゆる政策立案者が AI がもたらす機会と脅威に取り組んでいます。この状況に対処するには、人工知能の進歩と影響がどのように展開していくかを判断する必要があります。

AI の将来については AI の専門家の間でも明確なコンセンサスがなく、こうした判断は難しく、適切な判断を下す確実な方法もありません。したがって、トレンドの推測、類似イベントの参照カテゴリに基づく推論、エージェントの性質の分析、現在の AI システムとテクノロジの特性の調査、AI シナリオへの経済モデルの適用、市場、プロの予測者、さまざまな専門家の判断などの予測集約システムへの依存など、さまざまなノイズの多い方法を組み合わせる必要があります。

AIの進歩のスピード、影響の範囲、安全性、公平性、倫理性などは、私たちが真剣に考え、対応する必要がある問題です。人工知能の未来はどうなるのでしょうか?人工知能の機会と脅威をどのように見るべきでしょうか?人工知能の開発と利用をどのように規制し、指導すべきでしょうか?

これらの疑問を探るため、人間レベルの人工知能が及ぼす可能性のある影響を研究するプロジェクトであるAI Impactsは、人工知能の進歩に関する専門家調査2023(ESPAI)と呼ばれる前例のない大規模な調査を開始し、6つの主要なAIカンファレンスで論文を発表した2,778人のAI研究者に、AIの進歩、影響、安全性に関する見解を尋ねました。これらの AI 研究者は世界中から集まり、AI のさまざまなサブフィールドをカバーしています。彼らの意見や予測は、AI 分野における専門的で権威ある声を反映することができます。この調査の結果は、「AI の未来について語る数千人の AI 著者」というタイトルのプレプリントの形でオンラインで公開されています。この記事の著者には、カリフォルニア大学バークレー校、ドイツのボン大学、英国のオックスフォード大学などの有名大学の学者や研究者が含まれています。

AI Impacts は、前年に 6 つの主要な AI カンファレンスで査読済みの研究を発表した 2,778 人の AI 研究者を対象に調査を実施しました。私たちの知る限り、これはこれまでで最大の AI 研究者の調査です。この調査は、AIの幅広い進歩(ChatGPTとGPT-4、GoogleのBard、Bing AI Chat、AnthropicのClaude 1と2のリリースを含む)、AI問題に対する国民の認識の変化、米国、英国、EUの政府がAI規制の問題に取り組み始めた年である2023年秋に実施されました[Biden、2023、Amodei、2023、gov.uk、2023、欧州議会、2023]。調査には、AIの進歩のペースと動向、さらに高度なAIがもたらす社会的影響についての質問が含まれていました。

写真

図 1: もっともらしい日付は多数ありますが、ほとんどのマイルストーンは今後 10 年以内に発生する可能性がさらに高くなります。この図は、選択されたマイルストーンにおける期待パフォーマンスの全体的な分布を示しています。これには、39 のタスク、4 つの職業、および 2 つの一般的な人間レベルのパフォーマンス指標 (それぞれ実線の円、白抜きの円、実線の四角で表示) が含まれます。円/四角は、全体の分布がマイルストーンに到達する確率が 50% となる年を表し、間隔は確率が 25% から 75% の年の範囲を表します。これらの間隔は推定された不確実性ではなく、参加者が表した不確実性の合計を表していることに注意してください。

01 AIの進歩の予測:さまざまなタスクとレベルを達成する時間と確率

人工知能の進歩とは、人工知能システムが達成できるタスクとレベルの向上、および人工知能技術とアプリケーションの革新と拡張です。 AI の進歩のペースとは、AI が特定のタスクやレベルを達成するのにかかる時間の長さ、および AI テクノロジーとアプリケーションの変更と更新の頻度を指します。 AI の進歩とスピードは、AI の将来に影響を与える重要な要素です。それらは、AI が人間社会に与える影響の範囲と方向性、そして人間が AI の課題と機会に対応するために使用する戦略と方法を決定します。

調査では、AI研究者に、AIがさまざまなタスクやレベルを達成する時期と確率の予測、およびAIの進歩の速度が人類の将来に与える影響についての見解を尋ねました。これらのタスクとレベルには次のものが含まれます。

自動運転、音声認識、画像生成、音楽作曲、テキスト要約、プログラミング、翻訳、ゲーム、医療診断など、32 の具体的な AI タスク。

人間レベルの人工知能 (HLMI) とは、あらゆる分野とタスクにおいて人間のレベルに達するか、それを超えることができる人工知能システムを指します。

超人レベルの人工知能 (SHAI) とは、あらゆる分野とタスクにおいて人間のレベルをはるかに超える人工知能システムを指します。

人間の職業の自動化とは、特定の職業において人工知能システムが人間の仕事を完全に置き換えることができることを意味します。

これらのタスクとレベルについて、AI 研究者は、固定年と固定確率という 2 つの異なる質問方法を使用して、AI がそれらを達成する時期と可能性について予測を出すように求められました。固定年形式で、AI 研究者は、今後 10 年、20 年、50 年で AI が特定のタスクまたはレベルを達成する確率を示すように求められます。固定確率の質問形式で、AI 研究者は、AI が特定のタスクまたはレベルを達成するのに 10%、50%、90% の確率で何年かかると考えるか尋ねられます。これら 2 種類の質問の目的は、さまざまな質問方法が AI 研究者の予測に与える影響を調査し、AI の進歩に対する AI 研究者の不確実性と感受性を反映することです。

写真

図 2: 多くの AI マイルストーンの実現可能性の予想は 1 年 (2022 年から 2023 年) で大幅に前進しました。マイルストーンは、2022 年の予測から 2023 年の予測への低下の規模によって並べ替えられ (各サイズ調整済みチャート内)、最も大きな変化が最初に表示されます。総分布の結果、マイルストーンに到達する可能性が 50% となる年は、タスク、職業、一般的な人間レベルのパフォーマンスについて、それぞれ実線の円、白抜きの円、実線の四角で表されます。これら 3 つの質問セットは形式が異なり、回答にも影響する可能性があります。

調査結果によると、AI研究者によるAIの進歩に関する予測には次のような特徴があります。

AIがさまざまなタスクやレベルを達成する時期と確率についてのAI研究者の予測は非常にばらつきがあり、AIの進歩に対する不確実性が高いことを示し、AI分野の多様性と複雑性を反映しています。たとえば、AI が人間レベルの人工知能 (HLMI) を達成する時期についての予測の中央値は、質問の仕方によって 2028 年から 2060 年までの範囲で、HLMI は決して達成されないと考える回答者もいれば、HLMI はすでに達成されているか、まもなく達成されると考える回答者もいました。

写真

図 3: 高レベル機械知能 (HLMI) の 50 パーセンタイルがいつ到達するかについての全体的な予測は、2022 年から 2023 年の間に 13 年短縮されました。同じ期間に、労働力の完全自動化(FAOL)の 50 パーセンタイルが達成される時期の予測は 48 年短縮されました。しかし、多くの不確実性が残っています。総計予測

すべての個別の CDF の平均分布です。比較のために、2022 年の総合予測も記載しました。回答の範囲を把握するために、2023 年と 2022 年の個々の予測のランダムなサブセットを含めました。 2023 年の「信頼区間」が (2022 年と比較して) 低いのは、回答者の予測が収束したからではなく、サンプル サイズが大きくなったためであり、平均的な回答者の見解に対する信頼が高まったためであることに注意してください。

AI研究者はAIの進歩に関する予測を概ね前進させており、AIがさまざまなタスクやレベルを達成するのにかかる時間に関する予測は、2022年の調査よりも平均13~48年早まっている。21の短期的なAIタスクに関する予測も前進している。これは、AI 研究者が AI の開発速度と能力をより高く評価していることを示しているのかもしれませんし、近年の AI 技術とアプリケーションのブレークスルーとイノベーションの影響を受けているのかもしれません。

AI研究者の間では、AIの進歩のペースに対する好みが分かれており、速い方が良いという人もいれば、遅い方が良いという人もいますが、現在のペースから大幅に逸脱した選択肢はあまり人気がありません。これは、AI 研究者が AI の進歩の速度の影響について異なる見解や期待を持っていることを示している可能性があり、AI の進歩の速度を制御および規制する際のニーズと困難さを反映している可能性もあります。

AI 研究者による AI の進歩に関する予測は、AI の将来に関する不確実性と多様性、そして AI の進歩の速度の影響に関する懸念と意見の相違を示しています。これらの予測は、人工知能の発展の傾向と可能性を理解するのに役立ち、人工知能の開発と利用のための戦略と方法を策定するための参考資料と基礎を提供することもできます。

02 人工知能の影響の評価:人間社会にとって良い結果か悪い結果かの可能性

人工知能の影響とは、経済、政治、文化、教育、健康、環境、安全、倫理など、人間社会のあらゆる側面において人工知能システムが果たす役割と変化のことです。 AI の影響は、AI の設計、適用、管理、監督などの複数の要因に応じて、良い場合も悪い場合も中立的な場合もあります。 AI の影響は、AI 開発の速度、範囲、レベル、目標などの複数の要因に応じて、短期的、長期的、または継続的なものになります。 AIの影響は、AIの将来に影響を与えるもう1つの重要な要素であり、AIが人間社会にもたらす利益と価値の分配とバランス、そしてAIに対する人間の態度とフィードバックを決定します。

調査では、AI研究者に、人間社会にとって良い結果や悪い結果をもたらす可能性を含むAIの影響の評価や、AIがもたらすさまざまなリスクや課題に対する懸念の度合いについて質問しました。これらの良い結果と悪い結果、リスクと課題には次のものが含まれます。

人工知能がもたらす極めて好ましい結果には、人類の幸福、人類社会の平和と繁栄の大幅な向上、そして人類の知性と能力の向上が含まれます。

人工知能がもたらす極めて悪い結果、例えば人類の絶滅やそれに類似する永続的で深刻な人類の不利益、人類の知性や能力の喪失や弱体化、人間の価値や尊厳への損害など。

人工知能によってもたらされる懸念されるシナリオは 11 あり、偽情報の拡散、世論の操作、危険なグループによる強力なツールの作成、権威主義的な支配者による人口統制、人工知能による経済格差の悪化、人工知能による社会的不公正の悪化、人工知能による人間のプライバシーと安全の脅かし、人工知能による人間の自由と権利の脅かし、人工知能による人間の道徳と責任の脅かし、人工知能による人間の創造性と多様性の脅かし、人工知能による人間の意味と目的の脅かしなどです。

これらの良い結果と悪い結果、およびリスクの課題について、AI 研究者はパーセンテージと評価を使用して、発生確率と懸念レベルを評価するよう求められました。これらの評価の目的は、AI の影響に関する AI 研究者の態度や意見、また AI の影響の重要性と緊急性に関する認識を調査することです。

人工知能が進歩した理由は何でしょうか?

彼らは、AI 機能の進歩が 5 つの入力の変化にどの程度敏感であるかを尋ねました。その入力とは、1) 研究者の努力、2) コンピューティング コストの低下、3) トレーニング データセットのサイズと可用性を高めるための取り組み、4) 資金、5) AI アルゴリズムの進歩です。研究者たちは、回答者に、過去 10 年間に各入力の半分しか利用できなかったと想像し、これが AI の進歩の速度にどのような影響を与えると予想するかを尋ねました。結果は図に示されています。

写真

図 4: 過去 10 年間に投資が半減した場合の AI の進歩の減少の推定値。赤い点は平均値を示します。ボックスには 25 パーセンタイルから 75 パーセンタイルの範囲が含まれ、中心線は中央値です。ウィスカーは、中央値の四分位範囲の 1.5 倍を超えない最小値と最大値です。参加者は、コンピューティング コストの半減が過去 10 年間の AI の進歩に最も大きな影響を与えたと推定し、コンピューティング コストの半減、「研究者の努力」、および「AI アルゴリズムの進歩」は最も影響が小さかったと推定しました。全体として、含まれているすべての入力は AI の進歩に大きく貢献していると見なされました。

調査結果によると、AI研究者によるAIの影響に対する評価には次のような特徴があります。

AI 研究者による AI の影響に関する評価は非常に多様であり、AI の利点と価値に対する見解や期待が異なることを示しているほか、AI の社会的影響の複雑さと不確実性を反映しています。たとえば、AI によって非常に良い結果が出る確率の中央値予測は 5% から 50% の範囲でしたが、非常に良い結果が出る可能性は低いと考える回答者もいれば、非常に高いと考える回答者もいました。

AI研究者はAIの影響について概ね楽観的であり、AIによる極めて良好な結果の確率の予測は2022年の調査と比較して平均5パーセントポイント増加しています。回答者の68.3%は、悪い結果よりも良好な結果の可能性が高いと考えており、57.8%は極めて悪い結果(人類絶滅など)がある程度あり得ると考えています。これは、AI研究者がAIの開発と活用にさらなる自信と期待を抱いていること、また近年のAIの技術と応用に良い影響を受けていることを示しているのかもしれません。

AI 研究者は、AI の影響を評価することに非常に懸念を抱いています。懸念を引き起こす可能性のある 11 の AI シナリオすべてについて、回答者の 30% 以上が、多くの、または非常に注意を払う必要があると考えています。回答者の 86% は、偽情報の拡散が最も懸念されるシナリオであると考えています。続いて、世論の操作、危険なグループによる強力なツールの作成、権威主義的な支配者による AI を使用した人口管理、AI システムによる経済格差の悪化が続きます。これは、AI 研究者が AI のリスクと課題についてより意識し、警戒するようになったことを示しているのかもしれませんし、AI の開発と使用に関する責任と懸念を反映しているのかもしれません。

知能の爆発が起こるでしょうか?

彼らは、HLMI が達成された場合の「インテリジェンス爆発」の可能性について回答者に次のように尋ねました。

次のような点を指摘する人もいます。

AI システムがほぼすべての研究開発を行うと、AI の改善によって AI のさらなる進歩を含め、技術の進歩のペースが加速します。

このフィードバック ループにより、短期間 (5 年未満) で技術の進歩が 1 桁以上加速される可能性があります。

この議論がおおよそ正しい可能性はどのくらいだと思いますか?

最初の質問の結果は図 5 に示されています。

写真

図 5: 2016 年以降、回答者の大多数は、HLMI 達成後 5 年以内に技術進歩が 1 桁以上加速する可能性が「非常に高い」、「可能性が高い」、「ほぼ同等の確率」であると考えています。

AI 研究者による AI の影響に関する評価は、AI の将来に関する多様性と懸念、そして AI の利点と価値に関する見解と期待を示しています。これらの評価は、AI の社会的影響とリスクの課題を理解するのに役立ち、AI の開発と利用に関する目標と基準を策定するための参考資料と基礎を提供することもできます。

03 人工知能の安全性:安全性研究の定義、優先度、価値、難易度

人工知能のセキュリティとは、人工知能システムの設計、適用、管理、監督の過程で、人工知能システムが人類社会に危害や脅威を与えないようにするための能力と対策を指します。人工知能のセキュリティには、人工知能システムの信頼性、堅牢性、説明可能性、制御可能性、信頼性、コラボレーション、適応性、倫理など、多くの側面が関係します。 AI のセキュリティは、AI の将来に影響を与えるもう 1 つの重要な要素です。セキュリティは、AI システムと人間社会の関係と調整、および AI システムに対する人間の信頼と受容を決定します。

調査では、AI研究者に対して、AI安全性研究の定義、優先度、価値、難しさ、AIアライメント問題の重要性と難しさなど、AI安全性に関する見解を尋ねました。これらの質問の目的は、AI 研究者の AI 安全性に関する知識と態度、および AI 安全性への投資と貢献を調査することです。

人工知能が人類を絶滅させる可能性はどれくらいあるでしょうか?

全体的な影響に関する質問における「極めて悪い(例:人類絶滅)」シナリオの認識をさらに明確にするために、参加者には人類絶滅に関する 3 つの類似の質問のうち 1 つが尋ねられました。これらの違いは、さまざまなシナリオにどれだけの注意が払われているか、回答者が何が起こると予想しているか、作業がどれだけ異なるかを正確に区別するのに役立つように設計されています。

これらの質問に対する回答は、中央値が 5% または 10% で、かなり一貫していました。これらは、長期的な影響に関する一般的な価値の質問に対する回答にも近いものです。この質問に対する「極めて悪い(例:人類の絶滅)」という回答のほとんどは、人類の絶滅や人類の同様の永久的で深刻な力の喪失から来ており、この質問の回答者が考慮したかもしれないがそれほど深刻ではない他の結果から来ていることを示唆している可能性があります。

質問の仕方によって異なりますが、回答者の 41.2% から 51.4% が、人類の絶滅または深刻な電力喪失の可能性が 10% を超えると推定しました (図 6 を参照)。これは、「高度な機械知能は人類にとってどれほど良いか悪いか」という質問に対して、少なくとも 10% の結果(人類の絶滅など)を「非常に悪い」と評価した回答者の 38% と同等ですが、わずかに高い数字です。

写真

図 6: HLMI の非常に悪い結果 (人類の絶滅など) または人類の絶滅や権力の喪失に特に関係する 3 つの質問に対して 10% 以上の確率を与えた参加者の割合。

調査結果によると、AI研究者のAI安全性に関する見解には次のような特徴があります。

AI 研究者は、AI 安全性研究について非常に一貫した定義を持っています。AI 安全性研究とは、AI システムの能力向上を主な目的とする研究ではなく、AI システムの潜在的なリスクの軽減を主な目的とする研究を指すという点で、研究者らは概ね同意しています。また、説明可能な機械学習、長期的な AI リスク、AI の形式的検証、AI に関する公共の利益に関する政策など、AI 安全性研究の具体的な例も挙げています。

AI研究者はAIの安全性研究を非常に重視しています。彼らは一般的に、AIの安全性研究は現在よりももっと重視されるべきであると考えており、回答者の70%はAIの安全性研究を優先または大幅に優先すべきであると考えています。この割合は2022年の調査と比較してわずかに増加しただけであり、AI研究者が常にAIの安全性研究を非常に重視していることを示しています。

AI研究者は、AIセキュリティ研究の価値を高く認識しています。彼らは一般的に、AIセキュリティ研究は他のAI研究と同等かそれ以上に価値があると考えており、回答者の57%は、AIセキュリティ研究は他のAI研究よりも価値があるか、はるかに価値があると考えています。この割合は2022年の調査と比較して大幅に増加しており、AI研究者がAIセキュリティ研究の価値をよりよく理解していることを示しています。

AI研究者は、AIセキュリティ研究の難しさについて非常に明確に認識しています。彼らは一般的に、AIセキュリティ研究は他のAI研究よりも難しい、またははるかに難しいと考えています。回答者の57%は、AIセキュリティ研究は他のAI研究よりも難しい、またははるかに難しいと考えており、この割合は2022年の調査と比較して大きく変化しておらず、AI研究者は常にAIセキュリティ研究の難しさについて高いレベルの認識を持っていることがわかります。

AI研究者は、AIアライメント問題の重要性と難しさについて強く同意しています。彼らは一般的に、AIアライメント問題は非常に重要で非常に難しい問題であると考えています。回答者の54%は、AIアライメント問題はAI分野で最も重要または最も難しい問題の1つであると考えています。この割合は2022年の調査と比較して増加しており、AI研究者がAIアライメント問題への関心と重点を高めていることを示しています。

アライメントの問題はどれほど価値があり、難しいのでしょうか?

調査における AI 安全性の問題の 2 番目のセットは、スチュアート ラッセルのアライメント問題の定式化に基づいています。

この一連の質問は、ラッセルの議論の要約から始まり、高度な AI によって「望まないものではなく、望むものを正確に得ることができる」と主張し、次のように問いかけます。

1. この議論は重要な問題を指摘していると思いますか?

2. AI の他の問題と比較して、今日この問題を研究することはどれほど価値があるのでしょうか?

3. この問題は、人工知能の他の問題と比べてどれくらい難しいと思いますか?

回答者の大半は、アライメント問題は「非常に重要な問題」(41%)または「この分野で最も重要な問題の 1 つ」(13%)であると答え、また大半は AI の他の問題よりも「難しい」(36%)または「はるかに難しい」(21%)と答えました。しかし、回答者は概して、今日の整合問題を解決することが他の問題を解決することよりも価値があるという意見には同意していません。 (図7)

写真

図 7: スチュアート・ラッセルが提起したルートに関する質問に対する態度。参加者は、整合の問題は重要かつ困難ではあるものの、他の問題よりも価値があるわけではないと感じていました。

AI セキュリティに関する AI 研究者の見解は、AI セキュリティに対する理解と姿勢、そして AI セキュリティへの投資と貢献を示しています。これらの見解は、AI 安全性の定義と範囲を理解するのに役立ち、AI 安全性に関する研究と実践を策定するための参考資料と基礎も提供します。

04 AIリスクへの懸念:AIに関する誤解と偏見

AI リスクとは、AI システムの制御の喪失、誤用、乱用、攻撃、競争、紛争、差別、剥奪、破壊など、AI システムが人間社会に及ぼす潜在的または実際の危害や脅威を指します。 AIリスクは、AIの将来に影響を与える最後の重要な要素です。AIリスクは、人間のAIに対する信頼と態度だけでなく、AIを予防し対処する人間の能力と対策を決定します。

この調査では、AI研究者に対して、他のAI研究者、他の科学者、政府、一般の人々がAIのリスクをどの程度懸念しているか、また、他の人々がAIについて誤解や偏見を持っているかについての認識など、AIのリスクに関する他の人々の懸念に対する評価について質問しました。これらの質問の目的は、AI 研究者の AI リスクに対する認識とコミュニケーション、および AI リスクに関するコンセンサスとコラボレーションを探ることです。

調査結果によると、AI研究者によるAIリスクに関する他者の懸念の評価には次のような特徴があります。

AI研究者は、他のAI研究者がAIリスクに払う注意のレベルに非常に満足しています。彼らは一般的に、他のAI研究者がAIリスクに払う注意のレベルは適切またはやや不十分であると考えています。回答者の74%は、他のAI研究者がAIリスクに払う注意のレベルは適切またはやや不十分であると考えており、この割合は2022年の調査と比較して増加しており、AI研究者がAIリスクに払う注意のレベルが向上し、より一貫性が高まっていることを示しています。

AI研究者は、他の科学者がAIリスクに払う注意のレベルに非常に不満を持っています。彼らは一般的に、他の科学者のAIリスクへの注意が不十分または著しく不十分であると信じており、回答者の79%が他の科学者のAIリスクへの注意が不十分または著しく不十分であると信じており、この割合は2022年の調査と比較して大きく変わっていないことから、AI研究者は常に他の科学者がAIリスクに払う注意のレベルに不満を持っていることがわかります。

AI研究者は、AIリスクに対する政府の配慮に非常に不満を抱いています。彼らは一般的に、AIリスクに対する政府の配慮は不十分または著しく不十分であると考えており、回答者の84%がAIリスクに対する政府の配慮は不十分または著しく不十分であると考えており、この割合は2022年の調査と比較して大きく変化しておらず、AI研究者は常にAIリスクに対する政府の配慮に不満を抱いていることを示しています。

AI研究者は、AIのリスクに対する国民の懸念に非常に不満を抱いています。彼らは一般的に、AIのリスクに対する国民の懸念は過剰または非常に過剰であると考えており、回答者の67%がAIのリスクに対する国民の懸念は過剰または非常に過剰であると考えています。この割合は2022年の調査と比較して増加しており、AI研究者がAIのリスクに対する国民の懸念に対してより多くの不満と不信感を抱いていることを示しています。

AI研究者は、AIに関する他人の誤解や偏見について非常に明確に認識しています。彼らは一般的に、AIに関する他人の誤解や偏見は一般的または非常に一般的であると信じており、回答者の86%がAIに関する他人の誤解や偏見は一般的または非常に一般的であると信じており、この割合は2022年の調査と比較して大きく変化していないことから、AI研究者はAIに関する他人の誤解や偏見について常に高い認識を持ち、明確に認識していることがわかります。

専門家にとっても予測は難しい

一般的に予測することも困難であり、専門家のパフォーマンスは低いことが観察されています。参加者の専門分野は AI であり、私たちが知る限り、一般的な予測に関して特別なスキルを持っているわけではありませんでした。

この研究と過去の調査は、これらの専門家が私たちが尋ねる質問を正確に予測するわけではないことを示しています。まず、多くの質問に対して、回答者によって回答が大きく異なり、回答が真実にどれだけ近いかが限られていました。それでも、他の場合には、ノイズの多い予測の大きなセットの平均は比較的正確である可能性があるため、これらの組み合わせた予測の有用性は疑問のままです。

予測の正確さを裏付けるもう一つの証拠は、実質的なフレーミング効果の観察です。一見重要ではない質問の構成の変更が回答に大きな変化をもたらす場合、特定の質問に対する回答を集計しても、正確な回答のガイドにはならないことが示唆されます。密接に関連する研究の極端な例として、カーガーらは、AI の存在リスクの大きさをさまざまな方法で推定するよう求められたとき、大学卒業生の答えがほぼ 6 桁も異なることを発見しました。低確率のイベントの例が示されたとき、推定値ははるかに低くなりました。参加者にもある程度同様の効果が当てはまる可能性がありますが、専門知識と定量的なトレーニングによりこの効果は軽減される可能性があります。過去に AI のリスクについてより深く考えた参加者は、より高い数値を挙げたようで、さらなるリスクの例でより低い数値を挙げる可能性が低いことを示唆している。

こうした制限にもかかわらず、AI 研究者は未来についての私たちの集団的な推測の正確さに貢献する力を持っています。信頼性は低いものの、知識に基づいた推測は私たち全員が頼りにしなければならないものであり、その推測は関連分野の専門知識に基づいています。これらの予測は、コンピューター ハードウェアのトレンド、人工知能機能の進歩、経済分析、予測の専門家の洞察などの情報源から得られる幅広い証拠の一部である必要があります。しかし、AI 研究者はテクノロジーに精通しており、そのダイナミクスに関する経験も豊富なため、情報に基づいた推測を行うのに最適な立場にあります。

AI 研究者が AI リスクに関する他者の懸念を評価することは、AI リスクに対する彼らの認識とコミュニケーションを示し、また AI リスクに関する彼らのコンセンサスと協力も示しています。これらの評価は、AI リスクの認識と注意における違いや障壁を理解するのに役立ち、AI リスクの予防と対応に関する協力と対話を策定するための参考資料と基礎を提供することもできます。

参考: https://arxiv.org/abs/2401.02843.

<<:  Ant Marketingの推奨シナリオにおける因果修正法

>>:  優れたオープンソース音声認識エンジン13選

ブログ    
ブログ    
ブログ    

推薦する

2021年の世界人工知能産業の市場規模と投資・資金調達状況を分析人工知能は今後スパイラル状に発展する

人工知能業界の主要上場企業:現在、国内の人工知能業界の上場企業は主に百度(BAIDU)、テンセント(...

AIはイベント業界の未来を形作ることができるでしょうか?

ライブイベントは優れたマーケティング形式であり、ビジネスと顧客との関係を強化する優れた方法です。調査...

中国語で最も強力なオープンソース モデルがここにあります! 130億のパラメータ、商用利用の閾値0、Kunlun Wanweiより

最も徹底したオープンソース モデルがここにあります - 130 億のパラメーター、申請なしで商用利用...

人工知能は医療と健康分野に破壊的な革命をもたらすだろう

ヘルスケア分野への人工知能 (AI) の導入は、今日の国際医療における最も先進的な取り組みの 1 つ...

デジタル経済における人工知能の今後の発展動向

近年、デジタル経済の継続的な発展を背景に、人工知能は急速に発展し、さまざまな応用シナリオと深く統合さ...

...

普通のプログラマーがAIを活用する方法

[[187452]]現在、人工知能はますます人気が高まっている分野となっています。普通のプログラマー...

...

盗難防止は自分自身に対する保護にもなりますか?セキュリティの高いスマートドアロックを購入するのは正しいことでしょうか?

指紋認証ドアロックは新しいものではなく、誰もがよく知っているものだと思います。近年、スマートホームが...

世界のAI競争は中国と米国がリード。人工知能は過大評価されているのか?

[[315351]]少し前、グーグルの元CEOであるシュミット氏は下院科学宇宙技術委員会の公聴会で...

...

...

アリババのキャンパス採用の給与は魅力的すぎる、アルゴリズム職の最高給与は72万!最初のオファーを選択するにはどうすればいいですか?

[[248005]]インターネット業界は将来性が有望で、お金を稼げるので就職するには良い場所だと多...

自動化された機械学習は AI 研究の次の主流となるでしょうか?データサイエンティストの意見

自動化された機械学習は、過去 1 年間で大きな関心を集めるトピックになりました。 KDnuggets...

中関村科学技術の張傑氏との対話:大規模モデルを実装するには従うべき「テクニック」がある

ゲスト | 張潔インタビュー | 張小南編集者 | 徐潔成制作:51CTO テクノロジースタック(W...