ChatGPTに代表される大規模モデル技術の急速な発展により、レコメンデーションシステムは革命的な変化を遂げています。従来の推奨システムは、主にユーザーとアイテムの過去の行動データに基づいて予測を行います。大規模モデル技術の登場により、推奨システムの一般化能力と効率性が向上し、ユーザーとアイテムの数の膨大な規模や、観測できない要因が推奨に与える影響など、従来の推奨システムのいくつかの困難な問題が解決されました。同時に、大規模モデル推奨技術は、モデルの解釈可能性やプライバシー保護などの新たな課題ももたらします。 1. 推薦とLLMの紹介まず、レコメンデーションシステムと大規模モデル技術について全体的に紹介します。 1. 推奨方法の性質推奨システムは、短編動画や電子商取引など、さまざまなインターネット製品で広く使用されています。推奨方法の本質は、過去のユーザー行動データに適合させ、将来のユーザー行動を予測することです。推奨システムは、過去 10 年間で最も成功した AI 実装の事例です。ただし、産業シナリオでは、従来の推奨システムには依然として多くの問題が残っています。
2. ビッグモデルテクノロジー(NLPの新しいパラダイム)ChatGPT のリリース以来、ビッグモデルはよく知られた用語になりました。ビッグモデルは、事前トレーニング済みモデル + 微調整 + プロンプトモードという新しいパラダイムを NLP にもたらしました。このモデルは非常に驚くべき結果を達成しました。 人々は、このような強力な一般化能力を持つモデルが可能であることを認識し、「創発」現象が発生しました。簡単に言えば、大規模なモデルは、タスクを学習した後、それを他の状況に適用できます。同時に、タスク計画機能があり、タスクを分割して簡素化できます。 大規模言語モデルは事前トレーニングに大量のコーパスを使用し、それが大量の知識をエンコードすることに相当するため、大規模言語モデルは単なる言語モデルではなく知識モデルでもあると考える人もいます。従来のナレッジグラフのように知識構造を明示的に表現することはできませんが、モデル内の特定のパラメータを通じて事前トレーニングコーパス内の知識を適切にエンコードできる可能性が非常に高くなります。もちろん、一部の知識はうまくエンコードされない可能性がありますが、現在わかっていることは、NLP の分野では、大規模なモデルがすでに絶対的な優位性を持っており、さまざまなタスクで驚くべきパフォーマンスを発揮しているということです。 3. 推奨システムは大規模なモデルに何を求めているのでしょうか?推薦システムの観点から見ると、既存の推薦システムには、ユーザーやアイテムの理解が不十分であったり、モデルの一般化が不十分であったりするなどの問題があります。レコメンデーション システムの実践者は、大規模な言語モデルからインスピレーションを得て、より優れたレコメンデーション モデルを構築したいと考えています。
2. LLMは推薦システムを強化するこのセクションでは、表現、学習、一般化の分野における LLM エンパワーメントの推奨に関する、より高度で代表的な研究を紹介します。 1. 表現まず最初に紹介したいのは、KDが2023年に発表した作品です。アリババのM6 RACとアイデアが重なる部分があります。あまり先進的ではありませんが、効果はとても良いです。 中心となるアイデアは、ID を削除し、すべてのアイテム表現をテキストに変換し、言語モデルの強力なテキスト理解機能を使用してアイテムを理解して表現することです。具体的には、アイテム シーケンスの場合、各アイテムには ID だけでなく、いくつかのカテゴリ機能も含まれます。これは、タイトル、ブランド、価格など、アイテムに関連するすべてのプロパティをつなぎ合わせてアイテム文を構築し、非常に長い文を形成します。 そのため、本来は個々の項目から構成されるシーケンスは、項目文から構成される超長文となり、長文や項目段落とも呼ばれ、ユーザーのインタラクション履歴を表現するために使用されます。このように、BERT のようなモデルなどの言語モデルを使用して、それを理解および表現することができます。入力が長文または項目段落の場合は、ユーザーの表現が取得され、入力が項目文の場合は、項目の表現が取得されます。もちろん、埋め込みレベルでのトークンの表現に加え、推薦システムの特性に基づいた位置埋め込みも追加されます。 モデル アーキテクチャでは、Bert のバリエーションである long former を使用します。予測では、アイテム埋め込みとシーケンス埋め込み(ユーザー埋め込み)を使用してコサイン類似度を計算し、このコサイン類似度を使用して並べ替えを行い、ランキングリストを取得します。 事前トレーニング段階も非常にシンプルです。主に 2 つのことを行います。1 つは言語モデルの事前トレーニング タスクで、主にマスク トークン予測を行います。簡単に言うと、入力シーケンス内の一部のトークンをマスクして予測します。もう 1 つは、推奨タスクのためのアイテムレベルの事前トレーニング タスクで、アイテムの表現を強化します。主に、対照学習を通じてアイテム間の区別を学習し、アイテムの表現を可能な限り正のサンプルに近づけ、負のサンプルから可能な限り遠ざけます。これら 2 つのタスクを組み合わせることで完全な事前トレーニング プロセスが形成され、非常に良好な結果が得られました。 この研究から得られた重要な結論は、多くのシナリオにおいて、ID 表現をテキスト表現に置き換えることが可能であるということです。 2. 迅速な学習プロンプト学習の考え方は非常にシンプルで、プロンプトを使用して各タスクを説明するというものです。感情分析タスクを例にとると、過去には、入力テキストに対して分類タスクを実行し、その感情が肯定的か否定的かを予測するという、より判別的な方法でこの種のタスクを実行していました。ここで、入力があり、プロンプトを使用して感情分析タスクを記述し、モデルに結果をデコードして生成させ、この生成された結果を使用して感情の肯定的または否定的な傾向を判断します。要約すると、プロンプト学習の中心的な考え方は、タスクを説明するプロンプトを構築し、生成モデルを使用してタスクの結果を生成することです。 プロンプト学習の利点は、サンプルレベルの学習からタスクレベルの学習まで、ドメイン間の改善を実現できることです。これまでは、教師あり学習、教師なし学習、対照学習のいずれであっても、すべてサンプル レベルでの学習でした。プロンプト学習では、サンプルに加えて、モデリングに使用されるタスクを説明するプロンプトなどの追加入力があります。これにより、モデルの学習はタスクレベルの学習になり、サンプルレベルの学習よりも抽象度の高い学習になります。したがって、この学習パラダイムにはより多くの利点があります。 プロンプト学習は発売されるとすぐに、推奨分野の研究者の注目を集めました。2021年にNIPSで、推奨タスクをプロンプト形式で記述して、それが利点を持っているかどうかを研究するという研究がありました。以下は簡単に紹介します。 シーケンス モデリングに基づく推奨では、ユーザーが過去に訪問したアイテム シーケンス ID のリストを入力して、次に推奨されるアイテムを予測します。この研究の核となるアイデアは、アイテム ID のシーケンスを言葉で説明することです。入力はユーザーが過去に視聴した映画で、プロンプトはユーザーが今視聴したい映画です。次に、事前トレーニング済みのモデルを使用してそれをデコードし、生成される推奨映画を確認します。この記事では、アイテムをデコードして生成する方法については明確に説明されていませんが、この方向への取り組みを導いています。 次に紹介する研究は、楊紅霞教授がアリババ在籍時に行ったM6-Recです。この研究は、前述の2つの利点を組み合わせたもので、テキストを使用してアイテムとユーザーのインタラクションシーケンスの非ID化を表現し、プロンプト学習法も使用しています。 アーキテクチャはアリババの内部M6モデルアーキテクチャを採用しており、これは理解力と生成力の両方を備えたT5モデルに似たモデルアーキテクチャです。前部はBERTに似た双方向ニューラルネットワークで、理解力を高めることを目指しており、後部はGPTに似た自己回帰構造です。GPTとは異なり、トークンの生成を主に行うわけではありません。 プロンプトを使用して、多くの推奨タスクを記述します。たとえば、CTR タスクなどのスコアリング タスクは、プロンプト テンプレートに記述されます。このテンプレートは主に 2 つの部分に分かれています。最初の部分は機能の説明で、特別なトークンを使用して、ユーザーのポートレート機能やインタラクション履歴などの情報をラップします。2 番目の部分では、このユーザーに推奨する候補アイテムをいくつか説明します。 上記で構築されたプロンプトをモデルに入力すると、候補項目にスコアを付けることができます。スコアリングの考え方は非常にシンプルです。モデルは入力プロンプトに基づいて特別なトークンを生成し、このトークンの表現を取得します。この表現は、y = 1またはy = 0の確率を取得するためのデコードに使用されます。 もちろん、この研究では、生成タスクなど、他の多くの推奨タスクもさまざまなプロンプトに書き込まれており、この方向での代表的な初期研究となっています。 3. ChatGPT時代の仕事紹介したこれまでの研究はChatGPTのこれまでの研究の一部であり、使用されているモデルは主にBert、GPT2、Long-Former、M6などのモデルです。これらの作業の利点と欠点は次のようにまとめられます。 利点:主に、大規模モデルの分野におけるいくつかの高度な学習パラダイムや効果的な表現方法を推奨システムに導入し、一定の成果を達成しています。 デメリット:まず、モデル規模が小さく、モデル能力が比較的弱く、ChatGPT 以降の一部のモデルに比べてはるかに劣っています。次に、これらのタスクに必要なトレーニングの量が非常に多く、タスクを推奨するためのモデル学習の効率が比較的低いです。最後に、基本的なモデル能力が比較的弱いため、モデルの知識が限られ、一般化が不十分で、生成能力が弱いです。 次に、ChatGPT のリリース後に強力な基本モデルが完成した後に行われた作業と、これらの十分にトレーニングされたモデル機能を推奨システムに組み込む方法について説明します。 ChatGPT のみに基づく推奨:最初のタイプの作業では、ChatGPT は多くのタスクを解決できる強力なモデルであるため、ChatGPT を直接使用して推奨タスクを解決できると考えています。たとえば、推奨タスクを指示として記述し、コンテキスト内のサンプルをいくつか追加して、ChatCPT が直接推奨を行えるようにすることができます。この種の作業の結論は比較的楽観的です。ChatGPT には確かに優れた推奨を行う能力がありますが、上記の方法を使用して優れた推奨を行うように教えるだけでは不十分かもしれません。 ChatGPT は自然な推奨ではありません:
GPT と従来の推奨技術の融合:ここで、Tang Ruiming 教授のチームが参加した研究を紹介したいと思います。その核となるアイデアは、ChatGPT またはコンテキスト内学習を使用して、ChatGPT がオープンワールドの知識とクロスドメイン機能を十分に発揮できるようにし、ChatGPT の出力を下流の従来の推奨モデルに接続することです。このように、2 つのシステムは連携して、それぞれの利点を最大限に発揮します。推奨システムは推奨タスクを完了する役割を担い、ChatGPT は知識、クロス ドメイン、および少数ショット機能を提供する役割を担います。 この研究は非常に成功しています。要約すると、その核心は、ChatGPT によるコンテキスト内学習を使用して、ユーザーのインタラクション履歴とアイテムを推奨の観点から要約し、それを CTR モデルに追加機能として取り込むことです。 推奨シナリオに最適化された大規模モデルの構築:推奨分野における LLM の直接適用に関する多くの問題を解決するために、生成検索に似た 2 段階のフレームワークを提案しました。その中心となる考え方は、言語と推奨という 2 つの異なる観点から理解し、それぞれの利点を最大限に活用することです。推奨チェーン全体は、次の 3 つのスペースに分かれています。
要約すると、言語空間と推奨空間は理解と想起の第一段階として使用され、アイテム空間は高速スコアリングとソートの第二段階として使用されます。これは実際には従来の想起とソートと同じです。実験結果から判断すると、この方法は非常に効果的であり、ショット数が少ないシナリオでは従来のモデルに比べて大きな利点があります。具体的な実験データを以下に示します。 3. 大規模モデルの推奨の見通し1. パーソナライズされたヒントの最適化NLP タスク レベルのプロンプトとは異なり、推奨フィールドのプロンプトはユーザー レベルです。たとえば、高齢者と若者向けに異なるプロンプトを構築して、パーソナライズされた推奨を実現できます。では、このようなプロンプトはどのように構築するのでしょうか?手作業による構築は間違いなく非常に面倒で困難な作業であるため、パーソナライズされたプロンプトを最適化する方法が今後の研究の方向性の 1 つになります。 2. 堅牢なプロンプト最適化推奨フィールドは、アイテムとユーザー レベルの両方が時間の経過とともに急速に変化する、分布ドリフトの典型的なシナリオです。 APO や APE などのプロンプト最適化方法を使用して、ラベル付けされたサンプルに対してプロンプトを自動的に生成すると、手動で作成されたプロンプトよりも効果が高くなる可能性があります。しかし、分布ドリフトが発生すると、プロンプトの最適化に使用されるトレーニング サンプルの分布と実際のサンプルの分布に大きな差が生じ、プロンプトのパフォーマンスが低下する可能性があります。推奨フィールドの分布ドリフトによって引き起こされるプロンプトのパフォーマンスの低下を解決し、プロンプトの堅牢性を向上させる方法も、検討する価値のある方向性です。 3. 新しい推奨パラダイム推奨の有効性に影響を与える主な要因は、コンテンツの供給とマッチングの効率の 2 つです。実際の産業シナリオでは、供給の問題が効率の問題よりも大きなボトルネックになることがよくあります。多くの場合、既存の固定リストからユーザーの興味に応えるものを見つけるのは難しいです。たとえば、ある映画の面白い解説にユーザーの興味を引いたが、ビデオ プールにそのようなビデオがなく、ユーザーの情報ニーズを満たすことができない場合、このとき、大規模なモデルの生成機能を使用して、そのようなコンテンツを迅速に生成し、ユーザーのニーズをタイムリーに満たすことができれば、ユーザーに非常に良いエクスペリエンスの向上をもたらす可能性があります。したがって、チャットに似た方法を使用してユーザーのニーズを完全に理解し、ユーザーのニーズにタイムリーに応えるコンテンツを生成する方法を研究することは非常に価値があります。 4. 大規模なモデルの偏りを避けるビッグモデルは、事前トレーニングの段階でインターネット上の大量のコーパスを使用します。これらのコーパスは不均一に分布しており、当然ながら人々の社会的バイアスが含まれています。ビッグ予測モデルを推奨に直接使用すると、推奨結果が既存の社会的バイアスを継承する可能性があります。たとえば、コーパスが主に白人によって投稿された英語コンテンツで構成されている場合、推奨結果は白人の好みに傾きますが、ユーザーは黒人や黄色人種である可能性があります。推奨を行う際に大きなモデルの偏りを回避する方法も、ユーザー エクスペリエンス、法的倫理などの側面を含め、研究する価値があります。 IV. 結論ID に大きく依存する従来の推奨モデルには、不十分な理解や一般化の低さなどの問題があり、満足のいく推奨が得られません。推奨システムにおける既存の問題に対応するために、ビッグモデル技術を推奨分野に導入し、その強力な理解能力を活用することは、推奨データの理解に大いに役立つでしょう。また、将来的には、オープンエンドのドメインやタスクに対して統一されたパラダイムを持つ大規模な推奨モデルが登場する可能性も高いです。さまざまな推奨タスクを 1 つのモデルで統一できるというのは、非常にエキサイティングです。 最後に、推奨分野での大規模モデルの使用に関する参考提案をいくつか示します。
最後に、中国科学院ビッグデータ宇宙研究所についてご紹介したいと思います。同研究所は省政府が設立した新しいタイプの研究開発機関および公的機関として、サイバー空間のデータ再構築を中核概念とし、ビッグデータ、人工知能、サイバー空間のセキュリティに重点を置いています。より多くの科学技術の才能ある人材が当社に加わり、最先端技術の研究と応用に協力してくれることを期待しています。 |
AI は私たちの職業、働き方、そして企業文化を変えています。 AIを活用することで、本当に重要なスキ...
AI は、ネットワークとデバイスが過去の決定から学習し、将来のアクティビティを予測し、パフォーマン...
[[242113]] [51CTO.com クイック翻訳] インターネット アルゴリズムには、推奨シ...
[[260878]] 「当社は、個人データへのアクセスを必要としないマルチパーティデータコンピューテ...
職場で機械が人間の労働力を補うようになるにつれ、私たち全員がその恩恵を受けるために適応する必要があり...
北京時間9日午前1時(米国現地時間5月8日午前10時)、カリフォルニア州マウンテンビューで2018 ...
情報の海の中で、価値ある洞察を見つけることが重要です。最新の情報管理は、高度なテクノロジーと革新的な...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
元記事: データサイエンスと機械学習が米国で最も急速に成長している職業である理由[[223686]]...
予想外のことが起こらなければ、人類は人工知能の時代へと急速に進んでいくだろう。ウェイター、宅配便業者...
[[207730]] Microsoft は、Apache Spark 用のディープラーニング ライ...