著者: 徐潔成 校正:Yun Zhao 「AIは確かに人間を殺すかもしれない」これは注目を集めるために自主メディアが広めた噂ではなく、ChatGPTの生みの親でありOpenAIのCEOであるサム・アルトマン氏が今年3月にMITの研究科学者レックス・フリッドマン氏との会話の中で述べた発言である。 現在、世界で最も注目されているボスは、自身の予測が実現するのを防ぐための行動を起こすことを決意した。OpenAIは7月5日に公式サイトで公開したブログで、同社はトップクラスのAIチームを結成し、スーパーAIの核心的な技術的課題を解決し、4年以内にスーパーAIを完全に制御する計画だと述べた。 さらに注目すべきは、新しいチームの構築をより良く完成させるために、OpenAI がチームの中核ポジションの外部採用チャネルを開設したことです。現在募集中の 3 つのポジションの年俸は 245,000 ドルから 500,000 ドルの範囲です。 写真 1. 強力すぎるブラックボックスを作ったOpenAIによれば、スーパーインテリジェンスは人類がこれまでに発明した技術の中で最も影響力のある技術となり、人類が世界の最も重要な問題の多くを解決するのに役立つだろう。しかし無視できないのは、超知能の巨大な力も同様に危険であり、人類の多くの中核的スキルを失わせたり、人類を完全に絶滅させたりする可能性があるということです。 現時点では、最も先進的な大規模モデルである GPT4 でさえもスーパーインテリジェンスには程遠いですが、OpenAI はスーパーインテリジェンスの到来には 10 年かそれ以下しかかからないと考えています。さらに、AIにおける現在の人類の技術的蓄積では、将来、人間よりもはるかに賢い超知能を制御することはおろか、GPT4の推論能力さえも解釈することができません。 スーパーインテリジェンスがもたらすリスクを管理するためには、スーパーインテリジェンス AI の調整の問題を解決するための適切なガバナンス組織を確立する必要があります。しかし残念なことに、将来起こりうる危険を防ぐために、潜在的な超知能を操作したり制御したりする解決策はまだありません。 この段階で AI を調整するための最も効果的な技術の 1 つは、GPT4 で使用されている人間のフィードバックに基づく強化学習 (RLHF) ですが、人間の監督に基づくこの AI 機能に依存していると、私たちよりもはるかに賢い AI システムを確実に監督することはできません。したがって、現在のアライメント技術ではスーパーインテリジェンスを効果的にカバーすることができず、新たな技術革新を早急に見つける必要があります。 2. OpenAIの3段階計画超知能の潜在的なリスクに関して、OpenAI は、現在実用的な解決策であると考えているものも提示しています。それは、人間レベルで「自動調整研究システム」を確立し、人間が大量の計算能力を利用して研究作業を拡大し、超知能の制御と調整を実現できるようにすることです。 この自動アライメント研究システムの作成は、スケーラブルなトレーニング方法の開発、生成されたモデル結果の検証、アライメント パイプライン全体のストレス テストという 3 つのステップに大まかに分かれています。
OpenAIは、AIモデルの制御不能な動作に対する人々の理解が深まるにつれて、AIモデルに関する人間の研究の焦点は大きく変化し、AI研究の新たな分野が生まれる可能性もあると述べた。今後、研究が深まるにつれ、さらなる研究ルートや成果を公開していく予定だ。 3. 共同創業者が率いるトップチームこの自動調整システムをより良く構築するために、OpenAI はトップクラスの人工知能専門家による新しいチームを結成することを決定しました。チームは、OpenAIの共同創設者兼主任科学者であるイリヤ・スツケヴァー氏と、OpenAIの調整チームの責任者であるヤン・ライケ氏が率いる。 OpenAIの共同創設者兼主任科学者、イリヤ・スツケベ氏 チームの残りのメンバーには現在、社内で AI 調整を担当していた研究者やエンジニア、および他の研究開発チームの AI 専門家が含まれています。そして、OpenAI は今後 4 年間で、同社が獲得する計算能力の 20% を、新システムのトレーニングを完了するためのチームに割り当てることを決定しました。 これは将来への賭けであり、OpenAI の最も貴重な交渉材料は同社が構築しているスーパーチームである。公開ブログでは、このタスクを正しく完了することがOpenAIの使命を達成する上で非常に重要であるとも述べられています。他の社内外の組織を含む新しいチームがこれに貢献し、最終的にはより多くの分野で信頼性の高い新しい方法を推進し、展開することが期待されています。 4. 中核ポジションを高給で募集このブログのもう一つの重要な点は、OpenAI が現在、新しいチームの中核ポジションを募集していることです。 「現代の最も重要な技術的問題を解決するには、世界最高の頭脳の助けが必要です」とブログ投稿には書かれている。「すでに機械学習で成功を収めているなら、これは世界に多大な貢献をするチャンスです。」 現在募集中の 3 つの中核ポジションは、研究エンジニア、研究科学者、研究マネージャーです。 研究エンジニア: 年俸範囲は 245,000 ドルから 450,000 ドルです。主な責任は、機械学習のトレーニング コードを記述し、機械学習の実験と分析を実施し、チームと協力して将来の実験を計画することです。詳細には、スケーラブルな監督手法の調査、管理データセットとモデル報酬シグナルの研究、モデルの動作の予測、アライメント研究方法の設計が含まれます。 研究科学者: 年間給与の範囲も 245,000 ドルから 450,000 ドルです。この職務の主な責任は、革新的な機械学習技術を開発し、会社の研究ビジョンに貢献することです。この作業には、整合された研究実験の設計、研究方法の要約、データセットの管理、モデルの動作の調査、新しい実験方法の設計が含まれます。 リサーチマネージャー: 年俸範囲は 420,000 ドルから 500,000 ドルです。主に、科学者とエンジニアのチームを管理し、大規模モデルと超知能の研究結果を統合する責任を負います。この役割には、研究プロジェクトを計画および実行し、チームメンバーを指導し、チーム内で多様性と包括性の文化を育む能力が必要です。 5. 最終目標: 4年以内にすべてを解決するしかし、新しいチームがすでに非常に強力であり、OpenAI が優秀な人材を採用するために多額の資金を費やしているとはいえ、このタスクを完了することの難しさは想像に難くありません。サム・アルトマン自身も、最終的には成功を保証することはできないと認めています。 ただし、チームのアイデアの多くは、すでに予備実験で一定の成果を上げていることは注目に値します。AIアライメントメトリクスは、繰り返しの実験を通じてますます完璧になってきています。GPT4幻覚を解決するための実験では、いくつかの革新的な方法も使用されています。 チームの最終目標について、OpenAIは4年かけて自動調整システムの構築を完了し、AIの乱用、経済破壊、虚偽情報、偏見や差別、人間のAIへの過度の依存など、既存のAI大規模モデルと将来の可能性のある超知能のすべての技術的リスクを徹底的に理解し、軽減する予定だと述べた。 さらにOpenAIは、今後の研究では技術的な探求に加え、新チームは技術の価値が最大化され、AIが引き起こす可能性のある技術的リスクに加えて、人間や社会の問題を可能な限り解決できるよう、外部の学際的な専門家や組織とも積極的に協力していくとも述べた。 6. この時代の最も重要な問題結局のところ、OpenAIが現在懸念している超知能にせよ、最近ユーザーから広く批判されている大規模モデル幻覚問題にせよ、実際に実証されているのは、AIの監視とガバナンス能力における既存技術の不十分さであり、これは現代において人類が解決しなければならない最も緊急な課題の一つでもある。 ChatGPT が AI 2.0 時代へと導くにつれ、人工知能が生み出せる価値はまったく新しいレベルに引き上げられました。しかし、テクノロジーとその応用が継続的に浸透するにつれ、AI によってもたらされる詐欺、錯覚、悪用などの問題も、このテクノロジーの「諸刃の剣」としての性質を大きく露呈してきました。 今も将来も、人工知能戦略の究極の追求は、AGI に加えて、より重要なのは完全な説明可能性です。あるネットユーザーがツイッターで言ったように、もしある日本当に強力すぎるブラックボックスが作られたら、人類に大きな問題を引き起こすことになるだろう。 さらに、AIシステムのブラックボックス問題の解決も、将来のテクノロジー大手間の競争の中心的な戦場となるでしょう。結局のところ、この偉業を最初に達成できる企業は、既存の市場を完全に占有し、競合他社が到達できないブルーオーシャン領域に AI 製品とビジネスを拡大する機会を得ることになります。 もちろん、目的が何であれ、OpenAI は今、この道において新たな確実な一歩を踏み出しました。同時に、今後、より強力な企業がこの重要な探検に加わることを期待しましょう。 最後に、新しい OpenAI チームの採用情報と仕事のメリットにご興味がある場合は、次のリンクから詳細を確認できます: https://openai.com/careers/search 参考リンク:https://openai.com/blog/introducing-superalignment#JanLeike https://analyticsindiamag.com/openai-aims-to-achieve-superintelligence-before-2030/ |
<<: KServe、Kubernetes環境に基づく高度にスケーラブルな機械学習デプロイメントツール
ここでは、AI が日常生活で非常に正確に使用されている 5 つのベスト例を紹介します。人工知能 (A...
量子コンピューティングと人工知能は、現代の最も破壊的なテクノロジーの 2 つです。 2 つのテクノロ...
インターネット トラフィックの配当が薄れるにつれ、広告およびマーケティング業界は既存の市場シェアをめ...
2019年9月20日、HUAWEI CONNECT 2019カンファレンスにおいて、ファーウェイクラ...
人工知能は私たちの旅行や生活を変えただけでなく、いくつかの専門分野にも影響を与えました。例えば、次に...
中国ではブロックチェーン、ニューリテール、シェアサイクルが急成長しているが、技術大国である日本は明ら...
機械学習は現在隆盛を極めていますが、機械学習を学習・研究し、実稼働環境で活用したい場合には、プラット...
[51CTO.com クイック翻訳] ジェット推進研究所 (JPL) では、同僚がインテリジェントな...
電子メールは日ごとに賢くなってきています。 Gmail では宛先不明の受信者を報告でき、Google...
軍事情報は戦争と同様、不確実性の多い霧です。予測不可能で、予測不可能です。現在の人工知能の発展傾向か...
ボストンのロボット犬はしばらく前から販売されているが、価格は少々魅力的ではない。インターネット上には...
最近、BAIR は強化学習研究コードライブラリ rlpyt をオープンソース化しました。このライブラ...