画期的な論文word2vec は、当然の NeurIPS Test of Time Award を受賞しました。 しかし、第一著者のトーマス・ミコロフ氏がフェイスブックに投稿した長い受賞スピーチは失望と不満に満ちていた。 写真 論文が当初 ICLR に拒否されたという事実は、ささいな問題だった。彼はまた、 OpenAI の主任科学者である Ilya Sutskever 氏(当時は両者とも Google に在籍)について、婉曲的なコメントを出した。
写真 ミコロフ氏は、word2vecに続くもう1つの画期的な研究であるseq2seqについて言及していた。これは2014年に公開され、予期せぬことが起こらなければ2024年のNeurIPS Test of Time Awardを受賞する予定だ。 Tomas Mikolov 氏は、seq2seq のアイデアはもともと彼から生まれたものであり、Google Brain で働いていたときに Quoc Le 氏や Ilya 氏と何度も議論を重ねたと主張しています。 しかし、フェイスブックに切り替えた後、最終的に発表された論文に自分が共著者として記載されていないことに驚いたという。 写真
word2vecからseq2seqへword2vec の論文は当初、第 1 回 ICLR カンファレンス (当時は単なるワークショップ) に提出されましたが、採択率が 70% であったにもかかわらず、却下されました。 このため、ミコロフ氏は、査読者が論文の将来的な影響を予測することがいかに難しいかを嘆いた。 多くの研究者が同じ思いを抱いている。現在では大型モデルやAIペイントで広く使われているLoRAの作者であるWeizhu Chen氏は、最初の投稿は査読者が単純すぎると考えたために却下されたと明かした。
写真 ミコロフ氏は長年にわたり、word2vec に関する肯定的なものも否定的なものも含めた多くのコメントを聞いてきましたが、オンラインで実際に反応したことはありませんでした。
賞の10周年という機会を利用して、ミコロフ氏はこの古典的な論文の背景にあるいくつかの物語を共有しました。 まず、word2vec のコードは理解しにくいと多くの人が不満を述べており、中には Mikolov がわざと誰にとっても理解しにくいようにしたと考える人もいました。 彼は今、「いや、私はそれほど邪悪ではなかった」と明言し、リリースの承認を何ヶ月も待っている間にコードを短く速くしようとしただけで、結局コードを過剰に最適化してしまったのだと語った。
word2vec はミコロフ氏の最も引用された論文であるにもかかわらず、彼はこれを最も影響力のあるプロジェクトだとは決して考えていなかった。 実際、word2vec はもともと彼のRNNLMプロジェクトのサブセットでしたが、すぐに忘れ去られました。
RNNLM は、ディープラーニングがまだ暗黒時代だった 2010 年に始まり、ミコロフ氏は最初に実証されたアイデアを次のように挙げています。
写真 ミコロフ氏は、チェコ共和国のブルノ工科大学で博士号を取得した後、2012 年に Google Brain に入社しました。 彼は、ニューラルネットワークを信じる人が大勢いて、word2vec を研究し、その可能性を実証することができたのはとても幸運だったが、すべてが完璧であるかのような印象を与えたくはなかったと語った。 word2vec の後、Mikolov 氏は Google Translate を改良することでニューラル言語モデルを普及させたいと考えました。彼はフランツ・オッホのチームと協力し始め、当時の機械翻訳を補完したり、さらには置き換えたりできるいくつかのモデルを提案しました。 核となるアイデアは彼が Google Brain に入社する前に提案されたもので、異なる言語の文章のペアをトレーニングし、生成モデルを使用して最初に見た文章を翻訳するというものだ。 当時は、短い文ではうまく機能しましたが、長い文ではそれほどうまく機能しませんでした。彼はこのプロジェクトについて、Google Brain の他のメンバー、主に彼が Facebook に移った後にこのプロジェクトを引き継いだ Quoc Le 氏と Ilya Sutskever氏と何度も議論した。
… ミコロフ氏の長い演説を読んだとき、誰もが複雑な感情に満たされた。 写真 コーネル大学の助教授、ヴォロディミル・クレショフ氏は、word2vec が拒否されたという話を使って、論文の査読プロセスで落胆しないように皆を励まし、「良いアイデアは最終的に当然の評価を得るだろう」と語った。 写真 ミコロフ氏が指摘した貢献の分布、引用数、影響力などの問題は、NLP だけの問題ではなく、AI の分野全体に存在していると考える人もいます。 写真 参考リンク: |
>>: 天一雲が大規模言語モデル微調整データコンテストで優勝しました!
翻訳者 | 李睿レビュー | Chonglou検索拡張生成 (RAG) は、大規模言語モデル (LL...
現在、医療業界はこれまで以上に、コストの上昇を抑制し、アクセスを向上させ、人材不足による問題を緩和し...
[[255991]]継続的な学習と継続的な開発は、主流の IT 業界のプログラマーにとって日常的な...
AI分野におけるモデリング手法として、微分方程式と機械学習がありますが、それぞれの利点は何でしょうか...
[[410109]]人工知能(AI)研究に関しては、中国が現在最もホットな国です。清華大学人工知能...
OpenAI深夜アップデート! 5 つの大きなモデルが一気に投げられました。新しい GPT-4 Tu...
制作:51CTO テクノロジースタック(WeChat ID:blog) OpenAI はリーダーを変...
[[331259]] 【51CTO.comオリジナル記事】 1. はじめに前回の記事でレコメンデー...
[[436890]]最近、清華大学のチームが事前トレーニングを必要としない効率的な NLP 学習フ...
メタの主任科学者であり、ディープラーニングの先駆者であるヤン・ルカン氏は、現在のAIシステムが、山の...
Google の次世代アーキテクチャ Pathways は、大規模なモデルのトレーニングに使用されて...
これら 5 つの組織は、自然言語処理 (NLP) を使用して、顧客へのサービスの向上、反復的なタスク...