ChatGPTの立ち上げから1年以上が経った今、2023年のAIに関する最大の話題は、技術そのものではなく、むしろOpenAIの取締役会によるその急速な発展のドラマチックな報道になるかもしれない。 2024年に向けてGenAIに潜む緊張関係は、アルトマン氏の解任とその後のCEO復帰の際に明らかになった。AIは、その急速なイノベーションのペースを全面的に受け入れる人々と、多くのリスクを理由にAIの進歩を遅らせたい人々との間の大きな溝の中心にあるのだ。 テクノロジー界ではe/acc対Decelsとして知られるこの議論は、2021年以来シリコンバレーで繰り広げられてきましたが、AIの力と影響力が増すにつれて、両者の意見を理解することがますます重要になっています。 ここでは、いくつかの重要な用語と、AI の未来を形作る有名企業について簡単に説明します。 e/accとテクノロジーの楽観主義「e/acc」という用語は、有効加速主義を意味します。 つまり、e/acc を支持する人々は、テクノロジーとイノベーションができるだけ早く発展することを望んでいるのです。 「技術的資本は意識の次の進化をもたらし、想像を絶する次世代の生命体とシリコンベースの意識を創造することができる」と、この概念の提唱者は e/acc についての最初の投稿で説明した。 AIに関して言えば、「AI」またはAGIがここでの議論の基礎となります。 AGI は、人間と同等かそれ以上の能力を発揮できるほど高度な超知能 AI です。 AGI は自己改善も可能であり、無限の可能性を持つ無限のフィードバック ループを作成します。 AGI は人類を絶滅させる方法を見つけ出すほど賢くなるため、終末の日まで能力を維持すると信じる人もいますが、e/acc の熱狂的支持者は AGI がもたらすメリットに焦点を当てることを選択します。 e/acc の創設者 Substack は次のように説明しています。「そうする意志以外に、私たちが生きているすべての人々のために富を創造することを止めるものは何もありません。」 e/acc Start の創設者は常に謎に包まれてきましたが、おそらく e/acc の最大の支持者である @basedbeffjezos は、メディアによってその身元が暴露された後、自分が Guillaume Verdon であることを最近明らかにしました。 かつてアルファベット、X、グーグルで働いていたヴァードン氏は現在、自らが「AIのマンハッタン計画」と呼ぶものに取り組んでおり、Xでは「これはe/accの終わりではなく、新たな始まりです。ここは、私が立ち上がって、Xの伝統的な世界の外で私たちの声を届け、私の資格を使って私たちのコミュニティの利益を主張できる場所です」と語った。 ヴァードン氏はテクノロジー系スタートアップ企業 Extrotic の創設者でもあり、同社について「熱力学の物理学を活用して、物理世界における生成型 AI の究極の基盤を構築している」と説明しています。 トップベンチャーキャピタリストからのAI宣言e/acc の最も著名な支援者の一人は、アンドリーセン・ホロウィッツのベンチャーキャピタリスト、マーク・アンドリーセン氏で、同氏は以前、ウェルドン氏を「テクノロジー楽観主義の守護聖人」と呼んでいた。 テクノロジー楽観主義とは、その名の通り、テクノロジーが進歩すれば世界は最終的により良い場所になるだろうと信じる人たちのことです。アンダーソンは、テクノロジーが人類に力を与え、あらゆる物質的問題を解決する方法を説明した5,000語以上の声明である「テクノロジー楽観主義宣言」を執筆しました。アンダーソン氏はさらに、「AIの速度低下は人命を奪うことになる」と述べ、死を防げるほどAIが発達しなければ「殺人の一種」になるだろうとまで語った。 彼が書いたもう一つの技術的楽観論の記事「なぜAIは世界を救うのか」は、AIにおける画期的な発見により権威あるチューリング賞を受賞し、「AIのゴッドファーザー」の一人として知られるMetaの主任AI科学者、ヤン・ルカン氏によって転送された。 ルカン氏はXマガジンで自らを「ヒューマニスト」と称し、肯定的かつ規範的なテクノロジー楽観主義を支持している。 ルカン氏は最近、AI が到来するのはまだ先のことだと予想しており、「現在の経済・政治制度、そして人類全体が AI を永久に使用できるかどうか疑問視している」人々と公に対比している。 Meta がオープンソース AI を採用していることは、この技術がもたらす可能性は害よりも大きいという LeCun 氏の信念を強調している。一方で、広く利用可能な新世代 AI モデルを多くの開発者の手に渡すことを推進している Meta のようなビジネス モデルの危険性を指摘する人もいる。 AIの調整と減速3月に、Encode JusticeとFuture of Life Instituteは公開書簡を発表し、「すべてのAIラボはGPT-4よりも強力なAIシステムのトレーニングを少なくとも6か月間直ちに停止する」よう求めた。 この書簡は、イーロン・マスク氏やアップルの共同創業者スティーブ・ウォズニアック氏など、テクノロジー業界の著名人らによって支持された。 「慎重に行動し、安全性についてますます厳格になることが本当に重要だと思います」と、4月にMITのイベントで書簡を発表したOpenAIのCEO、アルトマン氏は述べた。「この書簡はこの問題に取り組む最善の方法ではないと思います」 OpenAIの役員室でのドラマが展開する中、アルトマン氏は再びこの戦いに巻き込まれた。OpenAIの非営利部門の元取締役らは、進歩のペースと、汎用人工知能(一般的に人間よりも賢いAIシステム)が全人類に利益をもたらすようにするというOpenAIの公言された使命について、ますます懸念を強めていた。 公開書簡に書かれたアイデアのいくつかは、減速と AI 減速の支持にとって鍵となるものです。 Decel は AI の将来が危険かつ予測不可能であるため、進歩を遅らせたいと考えており、同社の最大の懸念の 1 つは AI の一貫性です。 AI 調整問題は、AI が最終的に非常に賢くなり、人間が制御できなくなるという考えに対処します。 「人類が優位に立っているのは、比較的優れた知能によるものですが、その知能は他の種に有害な影響を及ぼし、絶滅も招きました。なぜなら、人類の目標は他の種と合致していないからです。人類は未来を支配しています。動物園のチンパンジーのように。先進的なAIシステムは人間に対しても同じことができるのです」と、マシン・インテリジェンス・リサーチ・インスティテュートのCEO、マロ・ブルゴン氏は語った。 MIRI などの AI 調整研究は、AI システムを人間の目標、道徳、倫理に合わせるように訓練し、人類に対するあらゆる実存的リスクを防ぐことを目的としています。 「根本的なリスクは、私たちよりもはるかに賢く、目標が一致せず、行動が予測不可能で制御不能な組織を作り出すことだ」とブルゴン氏は語った。 政府とAIの終末問題戦略リスク評議会のCEOであり、危険な状況のリスク軽減にキャリアを捧げてきた元国防総省職員のクリステン・パトモア氏は最近、記者団に対し、AIが核兵器の監視に使われた場合に起こり得る「大量死」を考えると、これは早急な対応が必要な問題だと語った。 しかし彼女は、「問題を見つめ続ける」だけでは何も役に立たないと強調した。「重要なのはリスクに対処し、最も効果的な解決策を見つけることだ」と彼女は語った。 「これは完全に二重使用の技術です。AIが解決策よりも武器になるシナリオはありません」と彼女は付け加えた。例えば、大規模な言語モデルは仮想研究助手となり、医療プロセスをスピードアップするが、同時に悪意のある人物が攻撃に使用するのに最適で最も伝染性の高い病原体を特定するのにも役立つだろう。それがAIが止められない理由の一つだと彼女は言った。 「減速することは解決策ではない」とパトモア氏は語った。 今年初め、彼女の元雇用主である国防省は、AIシステムを使用する際には必ず人間が介入すると述べた。これはどこでも採用されるべきプロトコルだと彼女は言った。 「AI自体は権威にはなり得ない」と彼女は言う。私たちはこれらのツールを信頼する必要があります。そうでなければ、使用すべきではありません。しかし、私たちはそれらを環境に結び付ける必要があります。このツールセットに対する理解が一般的に不足しているため、自信過剰や過度の依存のリスクが高くなります。 政府関係者や政策立案者もこれらのリスクに注目し始めている。バイデン・ハリス政権は7月、AI大手のアマゾン、アントロピック、グーグル、インフレクト、メタ、マイクロソフト、OpenAIから「AI技術の安全で信頼性が高く、透明性のある開発に向けて前進する」という自主的な約束を確保したと発表した。 ほんの数週間前、バイデン大統領は、社会全体の利害関係者グループがその限界について懸念しているにもかかわらず、AIの安全性とセキュリティに関する新たな基準をさらに確立する大統領令を発令した。同様に、英国政府は11月初旬に、AIの活用に重点を置いた初の国家支援組織であるAI Safety Instituteを設立した。 AIの覇権をめぐる世界的な競争が地政学的な競争と結びつく中、中国は独自のAIガードレールを導入している。 責任あるAIの約束と懐疑論OpenAIは現在SuperAlignに取り組んでおり、4年以内に超インテリジェントAlignの核となる技術的課題を解決することを目標としています。 Amazon は最近開催された Amazon Web Services re:Inventt 2023 カンファレンスで、AI イノベーションのための新機能を発表し、会社全体に責任ある AI 安全対策を導入しました。 「責任あるAIは別個のワークストリームとして捉えられるべきではなく、最終的にはビジネス上の必須事項として私たちの仕事のやり方に統合されるべきだと私はよく言っています」とAWSの責任あるAI責任者であるディヤ・ウィン氏は語った。 AWS が委託した Morning Consult の調査によると、責任ある AI はビジネス リーダーの 59% にとってますます重要なビジネス優先事項となっており、約半数 (47%) が 2023 年よりも 2024 年に責任ある AI への投資を増やす予定です。 責任ある AI を考慮すると AI のイノベーションのペースが遅くなる可能性がありますが、ウィン氏のようなチームはより安全な未来への道を切り開いていると考えています。 「企業はその価値を理解し、責任あるAIを優先し始めています」とウィン氏は述べ、その結果、「システムはより安全で、よりセキュアで、より包括的になるでしょう」と語った。 ブルゴン氏は納得しておらず、政府が最近発表したような措置は「最終的に必要なこととは程遠い」と述べている。 同氏は、AIシステムは早ければ2030年には壊滅的なレベルにまで発展する可能性があり、政府は主要なAI開発者が「システムの安全性を強力に実証」するまでAIシステムを無期限に停止する準備をする必要があると予測した。 |
7月16日、一部のネットユーザーは、米国で最も重要な法律文書である米国憲法を、人工知能による執筆を検...
財務省令第87号では、購入者または購入代理店は入札および入札評価プロセス全体を録画および記録しなけれ...
人々は人工知能の急速な発展と、さまざまな業界でのその応用事例を目撃してきました。ヘルスケアは、AI、...
[[414991]]この記事はWeChatの公開アカウント「Linux Kernel Things」...
公式発表では来週6つのメジャーアップデートが予定されているとのこと。早速見ていきましょう。写真1. ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
シーン説明: 昨年 8 月に Microsoft がリリースした「Que Shen AI」Suphx...
最後に、「OpenAI は再びオープンになりました。」 OpenAIが発表したばかりのDALL・E ...
PLOS ONE に掲載された新しい研究では、機械学習を使用して 4,438 人の乳児の「気質」デー...
2019年10月25日、人工知能の新興企業OpenAIが非営利団体から「営利企業」へと転換した際、シ...
[51CTO.com からのオリジナル記事] 金融テクノロジーのブームは 21 世紀以降急増してい...