技術楽観論者と悲観論者がシリコンバレーでAIの危険性を議論

技術楽観論者と悲観論者がシリコンバレーでAIの危険性を議論

ChatGPTの立ち上げから1年以上が経った今、2023年のAIに関する最大の話題は、技術そのものではなく、むしろOpenAIの取締役会によるその急速な発展のドラマチックな報道になるかもしれない。 2024年に向けてGenAIに潜む緊張関係は、アルトマン氏の解任とその後のCEO復帰の際に明らかになった。AIは、その急速なイノベーションのペースを全面的に受け入れる人々と、多くのリスクを理由にAIの進歩を遅らせたい人々との間の大きな溝の中心にあるのだ。

テクノロジー界ではe/acc対Decelsとして知られるこの議論は、2021年以来シリコンバレーで繰り広げられてきましたが、AIの力と影響力が増すにつれて、両者の意見を理解することがますます重要になっています。

ここでは、いくつかの重要な用語と、AI の未来を形作る有名企業について簡単に説明します。

e/accとテクノロジーの楽観主義

「e/acc」という用語は、有効加速主義を意味します。

つまり、e/acc を支持する人々は、テクノロジーとイノベーションができるだけ早く発展することを望んでいるのです。

「技術的資本は意識の次の進化をもたらし、想像を絶する次世代の生命体とシリコンベースの意識を創造することができる」と、この概念の提唱者は e/acc についての最初の投稿で説明した。

AIに関して言えば、「AI」またはAGIがここでの議論の基礎となります。 AGI は、人間と同等かそれ以上の能力を発揮できるほど高度な超知能 AI です。 AGI は自己改善も可能であり、無限の可能性を持つ無限のフィードバック ループを作成します。

AGI は人類を絶滅させる方法を見つけ出すほど賢くなるため、終末の日まで能力を維持すると信じる人もいますが、e/acc の熱狂的支持者は AGI がもたらすメリットに焦点を当てることを選択します。 e/acc の創設者 Substack は次のように説明しています。「そうする意志以外に、私たちが生きているすべての人々のために富を創造することを止めるものは何もありません。」

e/acc Start の創設者は常に謎に包まれてきましたが、おそらく e/acc の最大の支持者である @basedbeffjezos は、メディアによってその身元が暴露された後、自分が Guillaume Verdon であることを最近明らかにしました。

かつてアルファベット、X、グーグルで働いていたヴァードン氏は現在、自らが「AIのマンハッタン計画」と呼ぶものに取り組んでおり、Xでは「これはe/accの終わりではなく、新たな始まりです。ここは、私が立ち上がって、Xの伝統的な世界の外で私たちの声を届け、私の資格を使って私たちのコミュニティの利益を主張できる場所です」と語った。

ヴァードン氏はテクノロジー系スタートアップ企業 Extrotic の創設者でもあり、同社について「熱力学の物理学を活用して、物理世界における生成型 AI の究極の基盤を構築している」と説明しています。

トップベンチャーキャピタリストからのAI宣言

e/acc の最も著名な支援者の一人は、アンドリーセン・ホロウィッツのベンチャーキャピタリスト、マーク・アンドリーセン氏で、同氏は以前、ウェルドン氏を「テクノロジー楽観主義の守護聖人」と呼んでいた。

テクノロジー楽観主義とは、その名の通り、テクノロジーが進歩すれば世界は最終的により良い場所になるだろうと信じる人たちのことです。アンダーソンは、テクノロジーが人類に力を与え、あらゆる物質的問題を解決する方法を説明した5,000語以上の声明である「テクノロジー楽観主義宣言」を執筆しました。アンダーソン氏はさらに、「AIの速度低下は人命を奪うことになる」と述べ、死を防げるほどAIが発達しなければ「殺人の一種」になるだろうとまで語った。

彼が書いたもう一つの技術的楽観論の記事「なぜAIは世界を救うのか」は、AIにおける画期的な発見により権威あるチューリング賞を受賞し、「AIのゴッドファーザー」の一人として知られるMetaの主任AI科学者、ヤン・ルカン氏によって転送された。

ルカン氏はXマガジンで自らを「ヒューマニスト」と称し、肯定的かつ規範的なテクノロジー楽観主義を支持している。

ルカン氏は最近、AI が到来するのはまだ先のことだと予想しており、「現在の経済・政治制度、そして人類全体が AI を永久に使用できるかどうか疑問視している」人々と公に対比している。

Meta がオープンソース AI を採用していることは、この技術がもたらす可能性は害よりも大きいという LeCun 氏の信念を強調している。一方で、広く利用可能な新世代 AI モデルを多くの開発者の手に渡すことを推進している Meta のようなビジネス モデルの危険性を指摘する人もいる。

AIの調整と減速

3月に、Encode JusticeとFuture of Life Instituteは公開書簡を発表し、「すべてのAIラボはGPT-4よりも強力なAIシステムのトレーニングを少なくとも6か月間直ちに停止する」よう求めた。

この書簡は、イーロン・マスク氏やアップルの共同創業者スティーブ・ウォズニアック氏など、テクノロジー業界の著名人らによって支持された。

「慎重に行動し、安全性についてますます厳格になることが本当に重要だと思います」と、4月にMITのイベントで書簡を発表したOpenAIのCEO、アルトマン氏は述べた。「この書簡はこの問題に取り組む最善の方法ではないと思います」

OpenAIの役員室でのドラマが展開する中、アルトマン氏は再びこの戦いに巻き込まれた。OpenAIの非営利部門の元取締役らは、進歩のペースと、汎用人工知能(一般的に人間よりも賢いAIシステム)が全人類に利益をもたらすようにするというOpenAIの公言された使命について、ますます懸念を強めていた。

公開書簡に書かれたアイデアのいくつかは、減速と AI 減速の支持にとって鍵となるものです。 Decel は AI の将来が危険かつ予測不可能であるため、進歩を遅らせたいと考えており、同社の最大の懸念の 1 つは AI の一貫性です。

AI 調整問題は、AI が最終的に非常に賢くなり、人間が制御できなくなるという考えに対処します。

「人類が優位に立っているのは、比較的優れた知能によるものですが、その知能は他の種に有害な影響を及ぼし、絶滅も招きました。なぜなら、人類の目標は他の種と合致していないからです。人類は未来を支配しています。動物園のチンパンジーのように。先進的なAIシステムは人間に対しても同じことができるのです」と、マシン・インテリジェンス・リサーチ・インスティテュートのCEO、マロ・ブルゴン氏は語った。

MIRI などの AI 調整研究は、AI システムを人間の目標、道徳、倫理に合わせるように訓練し、人類に対するあらゆる実存的リスクを防ぐことを目的としています。 「根本的なリスクは、私たちよりもはるかに賢く、目標が一致せず、行動が予測不可能で制御不能な組織を作り出すことだ」とブルゴン氏は語った。

政府とAIの終末問題

戦略リスク評議会のCEOであり、危険な状況のリスク軽減にキャリアを捧げてきた元国防総省職員のクリステン・パトモア氏は最近、記者団に対し、AIが核兵器の監視に使われた場合に起こり得る「大量死」を考えると、これは早急な対応が必要な問題だと語った。

しかし彼女は、「問題を見つめ続ける」だけでは何も役に立たないと強調した。「重要なのはリスクに対処し、最も効果的な解決策を見つけることだ」と彼女は語った。 「これは完全に二重使用の技術です。AIが解決策よりも武器になるシナリオはありません」と彼女は付け加えた。例えば、大規模な言語モデルは仮想研究助手となり、医療プロセスをスピードアップするが、同時に悪意のある人物が攻撃に使用するのに最適で最も伝染性の高い病原体を特定するのにも役立つだろう。それがAIが止められない理由の一つだと彼女は言った。 「減速することは解決策ではない」とパトモア氏は語った。

今年初め、彼女の元雇用主である国防省は、AIシステムを使用する際には必ず人間が介入すると述べた。これはどこでも採用されるべきプロトコルだと彼女は言った。 「AI自体は権威にはなり得ない」と彼女は言う。私たちはこれらのツールを信頼する必要があります。そうでなければ、使用すべきではありません。しかし、私たちはそれらを環境に結び付ける必要があります。このツールセットに対する理解が一般的に不足しているため、自信過剰や過度の依存のリスクが高くなります。

政府関係者や政策立案者もこれらのリスクに注目し始めている。バイデン・ハリス政権は7月、AI大手のアマゾン、アントロピック、グーグル、インフレクト、メタ、マイクロソフト、OpenAIから「AI技術の安全で信頼性が高く、透明性のある開発に向けて前進する」という自主的な約束を確保したと発表した。

ほんの数週間前、バイデン大統領は、社会全体の利害関係者グループがその限界について懸念しているにもかかわらず、AIの安全性とセキュリティに関する新たな基準をさらに確立する大統領令を発令した。同様に、英国政府は11月初旬に、AIの活用に重点を置いた初の国家支援組織であるAI Safety Instituteを設立した。

AIの覇権をめぐる世界的な競争が地政学的な競争と結びつく中、中国は独自のAIガードレールを導入している。

責任あるAIの約束と懐疑論

OpenAIは現在SuperAlignに取り組んでおり、4年以内に超インテリジェントAlignの核となる技術的課題を解決することを目標としています。

Amazon は最近開催された Amazon Web Services re:Inventt 2023 カンファレンスで、AI イノベーションのための新機能を発表し、会社全体に責任ある AI 安全対策を導入しました。

「責任あるAIは別個のワークストリームとして捉えられるべきではなく、最終的にはビジネス上の必須事項として私たちの仕事のやり方に統合されるべきだと私はよく言っています」とAWSの責任あるAI責任者であるディヤ・ウィン氏は語った。

AWS が委託した Morning Consult の調査によると、責任ある AI はビジネス リーダーの 59% にとってますます重要なビジネス優先事項となっており、約半数 (47%) が 2023 年よりも 2024 年に責任ある AI への投資を増やす予定です。

責任ある AI を考慮すると AI のイノベーションのペースが遅くなる可能性がありますが、ウィン氏のようなチームはより安全な未来への道を切り開いていると考えています。 「企業はその価値を理解し、責任あるAIを優先し始めています」とウィン氏は述べ、その結果、「システムはより安全で、よりセキュアで、より包括的になるでしょう」と語った。

ブルゴン氏は納得しておらず、政府が最近発表したような措置は「最終的に必要なこととは程遠い」と述べている。

同氏は、AIシステムは早ければ2030年には壊滅的なレベルにまで発展する可能性があり、政府は主要なAI開発者が「システムの安全性を強力に実証」するまでAIシステムを無期限に停止する準備をする必要があると予測した。

<<: 

>>: 

ブログ    

推薦する

冬季オリンピックは人工知能産業の導入を加速し、デジタル経済の徹底的な発展を推進するだろう

人工知能は、この冬季オリンピックに知能の要素を加え、競技の効率とレベルを向上させ、テクノロジーに満ち...

...

ASRU2019コンペティションが終了、中国語と英語の混合音声認識技術における新たなブレークスルー

2019 IEEE 自動音声認識および理解ワークショップ (ASRU) は、2019 年 12 月 ...

2018 年に人工知能を変える 5 つのビッグデータ トレンド

ビッグデータや人工知能の広範な導入を通じて、これらの新興技術の大きな影響が世界経済に浸透するにつれ、...

2020 年に爆発的に増加する 9 つの AI マーケティング トレンド

マーケティングに AI を使用すると、代理店の専門家の作業がさまざまな点で楽になります。消費者に合わ...

2021年にAI開発に使える言語は何ですか?

[[417589]]パイソン[[417590]] Python は現在、機械学習で最も人気のあるプ...

メタバースにおける責任ある AI: なぜ優先されるべきなのか?

AI研究者は人類と未来を守るために、仮想世界で責任あるAIを開発しなければなりません。人工知能のア...

Google の自動運転車の秘密の世界を解明: 初めて公開された強力なツールの数々

[[201428]]アトランティック誌は今週、アルファベット傘下の自動運転企業ウェイモの謎を解明す...

AI | 人工知能プロジェクトを成功させるための 8 つの重要な役割

企業が AI プロジェクトをさらに展開するにつれて、特定の役割がビジネスの成功に不可欠であることがわ...

IBC識別パスワードSM9アルゴリズムに基づくID認証ソリューション

最近、ネットユーザーによってオンラインフォーラムで有名なブラウザにセキュリティ上の脆弱性があることが...

GPT-4 Turboがリリースされたが、人気が高すぎて翌日2時間ダウンした。

11月7日、北米の人工知能企業OpenAIの開発者会議が世界のテクノロジーコミュニティの注目を集め...

毛沢東選集と魯迅全集をAIに与えたところ、AIが書いた大学入試のエッセイは非常に適切だった。

[[407658]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...

Stable Diffusion 3 の論文がついに公開され、アーキテクチャの詳細が明らかになりましたが、これは Sora の再現に役立つでしょうか?

安定拡散 3 論文がついに登場しました!このモデルは2週間前にリリースされ、Soraと同じDiT(D...

...