OpenAIのCEOサム・アルトマン氏は先週金曜日に解雇され、もはや同社を率いていない。 投資家たちはこの取り決めに不満を抱き、ウルトラマンを復活させようとしたが失敗した。 OpenAIの最大の投資家であるマイクロソフトは、新たに設立されたAI研究開発部門の責任者としてアルトマン氏を採用したと発表した。 なぜ人事異動が起こるのか?私たちには分かりませんが、一人の名前がますます注目されつつあります。それは、新CEOのイリヤ・スツケヴェル氏です。 スツケヴィとアルトマンは常に異なる見解を持っていたウルトラマンは技術研究開発や利益をめぐって他の取締役らと意見の相違が多いと報じられている。スツケヴィ氏はOpenAIの主任科学者兼共同創設者であり、同社の取締役も務めている。スツケヴィとウルトラマンは反対側にいます。 先週末、アルトマン氏、マイクロソフト、OpenAIの取締役会、スツケヴィ氏と彼に続く数名の取締役が集まり、アルトマン氏の留任か退任かについて話し合った。彼らは最終的に日曜の夜、アルトマン氏の追放を確認する覚書に署名した。それがOpenAIの発展を促進し、同社の使命を守る唯一の選択肢だったからだ。 奇妙なことに、それから間もなく、スツケビ氏はツイッターに「理事会の行動に参加したことを深く後悔しています。OpenAIを傷つけるつもりはありませんでした」と投稿した。アルトマン氏はそのメッセージを読み、赤いハートを連ねて返信した。 さらに奇妙なのは、スツケヴィ氏も500人以上のOpenAI従業員とともに公開書簡に署名し、アルトマン氏が復職しない場合は同社を辞めてマイクロソフトに入社し、アルトマン氏と働くと述べたことだ。彼らはまた、取締役の辞任も要求した。 事件の焦点となっているのはスツケヴィだが、彼はいったい何者なのだろうか?調べてみましょう。 Sutskevi は OpenAI の成功の鍵スツケヴィ氏はソビエト連邦(ロシア)で生まれ、イスラエルで育ち、後にトロント大学でAIの先駆者であるジェフリー・ヒントン氏の指導の下、機械学習グループの学生として学びました。 2018年、ジェフリー・ヒントン氏はディープラーニングの研究でチューリング賞を受賞した。同氏はかつてグーグルで働いていたが、AIが人間よりも賢くなることを懸念したため、結局同社を退職したと報じられている。 その後、スツケヴィ氏は博士課程修了後、スタンフォード大学に進学し、著名なAI科学者アンドリュー・ン氏の同級生となった。 Sutskevi 氏はその後、AlexNet と呼ばれるニューラル ネットワークを作成し、約 10 年前に Google Brain チームのメンバーになりました。 Sutskevi 氏は OpenAI の共同設立者になる前に Google で 3 年間勤務していました。スツケヴィ氏はロシア語、ヘブライ語、英語に堪能です。 先月、MITテクノロジーレビューはYコンビネーターの幹部ダルトン・コールドウェル氏にインタビューし、同氏はサツケヴィ氏について次のように語った。「アルトマン氏が、サツケヴィ氏は世界で最も尊敬されている研究者の一人だと言ったのを覚えています。アルトマン氏は、サツケヴィ氏ならもっと優秀なAI人材を引き付けることができると考えています。アルトマン氏はもう一人の優秀なAI科学者、ヨシュア・ベンジオ氏にも言及し、サツケヴィ氏以上にOpenAIの主任科学者としてふさわしい人物を見つけるのは難しいだろうとも言っていました。」 マスク氏はまた、スツケビ氏がOpenAIの成功の鍵であると述べた。 OpenAIは2016年にGPT大規模言語モデルを発表したが、一般公開されたのは昨年11月になってからだった。 OpenAI モデルは無料であるため、急速に人気が高まり、テクノロジー業界に影響を与えました。 スツケヴィは超知能をどう制御するかを懸念しているウルトラマンや他の人たちと比べると、スツケヴィは公の場に姿を現すことは少なく、比較的控えめである。インタビューにもほとんど応じない。彼はインタビューを受けると、AI の意義について、良い面も悪い面も含めよく語りますが、特に AGI (強い人工知能、汎用人工知能) について語るのが好きです。 「AIは良いものだ。失業、病気、貧困など、私たちが現在直面しているすべての問題を解決するだろう」と、ガーディアン紙が制作したドキュメンタリーの中でスツケビ氏は語った。「しかし、AIは新たな問題も生み出すだろう。例えば、フェイクニュースは数え切れないほど深刻になり、サイバー攻撃はより過激になり、人間は自動化されたAI兵器を開発するだろう」 ChatGPT のリリース以来、Sutskevi 氏は AGI についてますます懸念するようになり、OpenAI が人類に利益をもたらすという非営利の使命に本当に取り組んでいるのか疑問に思うことが多い。スツケヴィはツイッターに「必要なのは混乱を減らすことだ」「物事をはっきりと見るための最大の障害は、すでに見ているものを信じることだ」「エゴは成長の敵だ」といったコメントを頻繁に投稿している。これらは概して思慮深い引用である。 最近のツイートのスタイルが急に変わり、超知能をいかに制御するかということに焦点を当てるようになりました。 Sutskevi 氏は、AI が人間よりもずっと賢くなると確信しているようで、人間は AI システムが人間の意図に従うようにすべきだと考えています。 最近、OpenAIとその同業他社は、いわゆる「AIアライメント技術」の作成を目指して、人間のフィードバック情報を使用してAI学習を強化し、より高度な大規模言語モデルを開発し始めました。Sutskevi氏は、これらのモデルはすでに「スーパーインテリジェンス」に到達していると考えています。 「AIアライメント」はAI制御における大きな課題であり、AIシステムの目標を人間の価値観や利益と一致させることが求められます。 7月に、スツケビ氏はアライメント技術の第一人者ヤン・ライケ氏と提携し、いわゆる「スーパーアライメントチーム」を結成した。同チームは今後4年以内にOpenAIの計算能力の約20%を使ってこの問題を解決する予定だ。 新チームは「これは非常に野心的な目標であり、成功を保証することはできません。より集中したチームがこの課題を解決できると楽観的に考えています」と述べた。(Xiaodao) |
<<: NvidiaとGenentechがAIを活用して新薬発見を加速させる提携
[51CTO.comよりオリジナル記事] 10月13日、中関村スタートアップストリートで、中関村ス...
多くの人が人工知能に非常に興味を持っていますが、どこから始めればよいか分かりません。次に紹介する 1...
WeChatミニプログラムにゲーム「Jump Jump」が登場して以来、多くのWeChatユーザーが...
最近、教育部は「教育部の高等大学教育の建設を加速し、人材育成能力を全面的に向上させることに関する意見...
途中で迷うと、モデルは怠惰になり、コンテキストが長くなるほど、モデルは愚かになります... LLM ...
[[433830]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
[[431427]]この記事はWeChatの公開アカウント「3分でフロントエンドを学ぶ」から転載した...
人類にとって、時間は常に最大の敵であり、時間を超越することは常に人類の夢でした。「未来を予測する」こ...
公開されたばかりの Logjam 脆弱性 (FREAK 脆弱性のバリエーション) に関する情報はブラ...
[[375636]] 2020年11月下旬、イランのトップ核科学者モフセン・ファクリザデ氏がテヘラ...
気がつくと、1 秒あたり 500 トークンを出力できる Groq モデルがインターネット上に広まって...
過去数年間、研究者たちは人工知能システムの安全性にますます関心を寄せてきました。 AI 機能のサブセ...
ロボットが人類の脅威にならないようにする6つの戦略ウィル・スミス主演のアメリカ映画「アイ,ロボット」...