序文 このブログ投稿では、第一レベルの数学的導出の観点から LDA トピック モデルを詳細に説明します。LDA のみを理解したい読者は、最初のセクションの紹介だけを読んでください。 PLSA は LDA と非常に似ているため、トピックモデリングにおいても非常に重要なモデルです。この記事では、このモデルについても重点的に説明します。読みにくい場合は、フィボナッチ数列を定義し、知識ポイントが収束するまで f(n) = f(n-1) + f(n-2) の日に再度読み進めることができます。読者が記事に誤りを見つけたり、改善の余地があると思われる場合は、お気軽に共有してください。 1. はじめに 機械学習の分野では、LDA は、線形判別分析と潜在的ディリクレ配分という 2 つのよく使用されるモデルの略称です。この記事の LDA は、潜在的ディリクレ分布のみを指します。LDA はトピック モデルで非常に重要な役割を果たし、テキスト分類によく使用されます。 LDA は、文書のトピック分布を推測するために、2003 年に Blei、David M.、Ng、Andrew Y.、Jordan によって提案されました。文書セット内の各文書のトピックを確率分布の形式で提示できるため、いくつかの文書を分析してトピック分布を抽出した後、トピック分布に基づいてトピッククラスタリングまたはテキスト分類を実行できます。 2. 事前の知識 LDA モデルには多くの数学が含まれており、これがおそらく LDA がわかりにくい主な理由です。このセクションでは、主に LDA に関係する数学的な知識を紹介します。数学の基礎がしっかりしている学生はこのセクションをスキップできます。 LDA に必要な事前知識には、二項分布、ガンマ関数、ベータ分布、多項分布、ディリクレ分布、マルコフ連鎖、MCMC、ギブス サンプリング、EM アルゴリズムなどが含まれます。スペースの制限により、この記事では、いくつかの概念を重点的に紹介するだけにします。すべての概念を詳細に紹介したり、各概念の数式を導出したりすることはしません。すべての概念を詳細に紹介すると、おそらく 100 ページの本が必要になるでしょう。 LDA を熟知し、自由に使用できるようになったら、おめでとうございます。機械学習の強固な数学的基礎を習得したことになります。基礎となる数式導出プロセスについて詳しく知りたい場合は、「The Complete Book of Mathematics」などの資料を参照してください。 3.2 PLSAモデル 主語の概念は Unigram モデルでは考慮されません。私たちが記事を書くとき、それはすべて特定のトピックに関するものであり、ランダムな単語ではありません。たとえば、金融ジャーナリストがレポートを書く場合、記事の大部分は金融トピックに関するものになります。もちろん、他のトピックに関連する単語も少数あります。したがって、PLSA は、ドキュメントの生成プロセスは次のようになると考えています。
上図には3つのトピックがあります。PLSAでは、トピックワード「教育」を確率0.5で抽出するなど、一定の確率でトピックワードを抽出し、抽出したトピックワードに基づいて対応する単語分布を求め、単語分布に基づいて語彙を抽出します。このことから、PLSA ではトピック分布と単語分布の両方が一意に決定されることがわかります。しかし、LDA では、トピック分布と単語分布は不確実です。LDA の著者はベイズの考えを採用し、分布に従うべきだと考えています。トピック分布と単語分布はどちらも多項分布です。多項分布とディリクレ分布は共役構造であるため、LDA では、トピック分布と単語分布は共役事前分布としてディリクレ分布を使用します。そのため、LDA は PLSA のベイズバージョンであるという説が広く流布しています。次の 2 つの図でその違いがよくわかります。 PLSA と LDA の両方の論文では、モデルを説明するために次の図が使用されています。また、PLSA と LDA の違いを比較するのにも役立ちます。 3.3.6 LDA推論 LDA モデルでは、新しいドキュメント doc に対して、トレーニング コーパスから取得されたモデルによって提供されるギブス サンプリング式の部分が安定していて変更されていないと仮定するだけで済みます。したがって、サンプリング プロセス中は、ドキュメントのトピック分布を推定するだけで済みます。具体的なアルゴリズムは次のとおりです。
4つのヒント LDA を理解している面接官は通常、求職者に LDA のトピックの数をどのように決定するかを尋ねます。 LDA では、トピックの数に対して固定された最適解は存在しません。モデルをトレーニングする際には、トピックの数を事前に設定する必要があります。トレーナーは、トレーニング結果に基づいてパラメータを手動で調整し、トピックの数を最適化して、テキスト分類の結果を最適化する必要があります。 5 追記 LDA には幅広い用途があります。LDA を深く理解することは、モデルの調整、新しいモデルの提案、AI スキルの向上に大いに役立ちます。 LDA が何に使用できるかを知っているだけでは、初心者を騙すことはできません。 Baidu は LDA モデルをオープンソース化しました。興味のある方は、https://github.com/baidu/Familia/wiki をご覧ください。 参考文献 [1]: Blei, DM, Ng, AY, & Jordan, MI (2003). 潜在的ディリクレ配分。機械学習研究ジャーナル、3(1月)、993-1022。 [2]: Hofmann, T. (1999). 確率的潜在意味索引付け。情報検索の研究開発に関する第22回国際ACM SIGIR会議議事録(pp. 50-57)。ACM。 [3]: Li, F., Huang, M., & Zhu, X. (2010). グローバルトピックとローカル依存関係による感情分析。AAAI (第10巻、pp. 1371-1376)。 [4]: Medhat, W., Hassan, A., & Korashy, H. (2014). 感情分析アルゴリズムとアプリケーション: 調査. Ain Shams Engineering Journal, 5(4), 1093-1113. [5]: Rick, Jin. (2014). http://www.flickering.cn/数学之美/2014/06/【lda数学八卦】神奇的グラム/より取得。 [6]: LDAトピックモデルの簡単な理解。(2014) http://blog.csdn.net/v_july_v/article/details/41209515より取得。 [7]: 周志華(2017)『機械学習』北京、中国:清華大学出版局。 [8]: Goodfellow, I., Bengio, Y., Courville, A. (2017). ディープラーニング. マサチューセッツ州ケンブリッジ: MIT プレス. [9]: Hang, Li. (2016). 統計的学習法. 北京、中国: 清華大学出版局. 著者: Xia Qi、Daguan Data の NLP チーム、WeChat ID: Datagrand [この記事は51CTOコラムニスト「Daguan Data」によるオリジナル記事です。転載については51CTOコラムまでご連絡ください] この著者の他の記事を読むにはここをクリックしてください |
<<: 2018 年に人工知能を変える 5 つのビッグデータ トレンド
[[206395]]さまざまな興味の組み合わせに応じて必要な動画を検索できるのは、毎日無数の動画コン...
[[198507]]誰の生活も金融から独立して存在することはできません。テクノロジーの発展により人々...
北京時間3月11日、外国メディアの報道によると、科学者らは最近、「人間の脳に潜り込み」、どのような顔...
[[380280]] Keras Python ライブラリを使用すると、ディープラーニング モデルを...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
神経科学は人工知能の「超進化」の鍵となるのか?ディープラーニングやディープニューラルネットワークが流...
近年、人工知能技術の研究が継続的に進歩するにつれて、資本は熱い傾向を示し、さまざまな業界が人工知能に...
インターネットの出現と普及は、大量の情報をユーザーにもたらし、情報化時代の情報需要を満たしました。し...
近年、生成的事前トレーニング済みモデル (GPT など) の台頭により、自然言語処理の分野に革命が起...
少し前、あるニュースが大きな衝撃を与えた。3年前の母親殺害事件の容疑者、呉謝宇が重慶江北空港で逮捕さ...
人工知能が世界を形作っています。コロナウイルスを克服する方法、自動車の自動化、ロボット工学など、世界...
建設業界は長い間、伝統的な手作業のプロセスで知られてきましたが、テクノロジーの進歩により急速に変化し...
[[321585]]現代のコンピュータが誕生するずっと前から、数え切れないほどのSF作品が、宇宙を...
バックアップ ソフトウェア ベンダーはすでに自動化と仮想アシスタント用の生成 AI ツールを導入して...