LDA模型

本文摘抄自靳志辉的《LDA 数学八卦》.

游戏规则

对于上述的 PLSA 模型,贝叶斯学派显然是有意见的,doc-topic 骰子 \overrightarrow{\theta}_m 和 topic-word 骰子 \overrightarrow{\varphi}_k 都是模型中的参数,参数都是随机变量,怎么能没有先验分布呢?于是,类似于对 Unigram Model 的贝叶斯改造, 我们也可以如下在两个骰子参数前加上先验分布从而把 PLSA 对应的游戏过程改造为一个贝叶斯的游戏过程。由于 \overrightarrow{\varphi}_k \overrightarrow{\theta}_m 都对应到多项分布,所以先验分布的一个好的选择就是Drichlet 分布,于是我们就得到了 LDA(Latent Dirichlet Allocation)模型。

image

在 LDA 模型中, 上帝是按照如下的规则玩文档生成的游戏的

\begin{array}{l} \hline\text{LDA Topic Model}\\ \hline 1: 上帝有两大坛子的骰子,第一个坛子装的是doc-topic骰子,第二个坛子装的\\ \quad \; 是topic-word骰子\\ 2: 上帝随机的从第二个坛子中独立的抽取了K个topic-word骰子,编号从1到K;\\ 3: 每次生成一篇新的文档前,上帝都先从第一个坛子中随机抽取一个doc-topic骰子,\\ \quad \; 然后重复如下过程生成文档中的词;\\ \qquad 1:投掷这个doc-topic骰子,得到一个topic编号z\\ \qquad 2:选择K个topic-word骰子骰子中编号为z的那个,投掷这个骰子得到词 \\ \hline \end{array}

假设语料库中有 M 篇文档,所有的的word和对应的 topic 如下表示

\begin{align*}\overrightarrow{\mathbf{w}} & = (\overrightarrow{w}_1, \cdots, \overrightarrow{w}_M) \\ \overrightarrow{\mathbf{z}} & = (\overrightarrow{z}_1, \cdots, \overrightarrow{z}_M) \end{align*}

其中, \overrightarrow{w}_m 表示第 m 篇文档中的词, \overrightarrow{z}_m 表示这些词对应的 topic 编号。

image

物理过程分解

使用概率图模型表示, LDA 模型的游戏过程如图所示。

image

这个概率图可以分解为两个主要的物理过程:

理解 LDA最重要的就是理解这两个物理过程。 LDA 模型在基于 K 个 topic 生成语料中的 M 篇文档的过程中, 由于是 bag-of-words 模型,有一些物理过程是相互独立可交换的。由此, LDA 生成模型中, M 篇文档会对应于 M 个独立的 Dirichlet-Multinomial 共轭结构; K 个 topic 会对应于 K 个独立的 Dirichlet-Multinomial 共轭结构。所以理解 LDA 所需要的所有数学就是理解 Dirichlet-Multiomail 共轭,其它都就是理解物理过程。现在我们进入细节, 来看看 LDA 模型是如何被分解为 M+K 个Dirichlet-Multinomial 共轭结构的。

由第一个物理过程,我们知道 \overrightarrow{\alpha}\rightarrow \overrightarrow{\theta}_m \rightarrow \overrightarrow{z}_{m} 表示生成第 m 篇文档中的所有词对应的topics,显然 \overrightarrow{\alpha}\rightarrow \overrightarrow{\theta}_m 对应于 Dirichlet 分布, \overrightarrow{\theta}_m \rightarrow \overrightarrow{z}_{m} 对应于 Multinomial 分布, 所以整体是一个 Dirichlet-Multinomial 共轭结构;

image

前文介绍 Bayesian Unigram Model 的小节中我们对 Dirichlet-Multinomial 共轭结构做了一些计算。借助于该小节中的结论,我们可以得到

p(\overrightarrow{z}_m |\overrightarrow{\alpha}) = \frac{\Delta(\overrightarrow{n}_m+\overrightarrow{\alpha})}{\Delta(\overrightarrow{\alpha})}

其中 \overrightarrow{n}_m = (n_{m}^{(1)}, \cdots, n_{m}^{(K)}) n_{m}^{(k)} 表示第 m 篇文档中第 k 个topic 产生的词的个数。进一步,利用 Dirichlet-Multiomial 共轭结构,我们得到参数 \overrightarrow{\theta}_m 的后验分布恰好是

Dir(\overrightarrow{\theta}_m| \overrightarrow{n}_m + \overrightarrow{\alpha}).

由于语料中 M 篇文档的 topics 生成过程相互独立,所以我们得到 M 个相互独立的 Dirichlet-Multinomial 共轭结构,从而我们可以得到整个语料中 topics 生成概率

\begin{align}\label{corpus-topic-prob} p(\overrightarrow{\mathbf{z}} |\overrightarrow{\alpha}) & = \prod_{m=1}^M p(\overrightarrow{z}_m |\overrightarrow{\alpha}) \notag \\ &= \prod_{m=1}^M \frac{\Delta(\overrightarrow{n}_m+\overrightarrow{\alpha})}{\Delta(\overrightarrow{\alpha})} \quad\quad (*) \end{align}

目前为止,我们由 M 篇文档得到了 M 个 Dirichlet-Multinomial 共轭结构,还有额外 K 个 Dirichlet-Multinomial 共轭结构在哪儿呢?在上帝按照之前的规则玩 LDA 游戏的时候,上帝是先完全处理完成一篇文档,再处理下一篇文档。文档中每个词的生成都要抛两次骰子,第一次抛一个doc-topic骰子得到 topic, 第二次抛一个topic-word骰子得到 word,每次生成每篇文档中的一个词的时候这两次抛骰子的动作是紧邻轮换进行的。如果语料中一共有 N 个词,则上帝一共要抛 2N 次骰子,轮换的抛doc-topic骰子和 topic-word骰子。但实际上有一些抛骰子的顺序是可以交换的,我们可以等价的调整 2N 次抛骰子的次序:前 N 次只抛doc-topic骰子得到语料中所有词的 topics,然后基于得到的每个词的 topic 编号,后 N 次只抛topic-word骰子生成 N 个word。于是上帝在玩 LDA 游戏的时候,可以等价的按照如下过程进行:

\begin{array}{l} \hline\text{LDA Topic Model 2}\\ \hline 1: 上帝有两大坛子的骰子,第一个坛子装的是doc-topic骰子,第二个坛子装的\\ \quad \; 是topic-word骰子\\ 2: 上帝随机的从第二个坛子中独立的抽取了K个topic-word骰子,编号从1到K;\\ 3: 每次生成一篇新的文档前,上帝都先从第一个坛子中随机抽取一个doc-topic骰子,\\ \quad \; 然后重复投掷这个topic-word骰子,为每个词生成一个topic编号z;\\ \quad \; 重复如上过程处理每篇文档,生成语料中每个词的topic编号;\\ 4: 从头到尾,对语料中的每篇文档中的每个topic编号z,选择K个topic-word骰子中\\ \quad \; 编号为z的那个,投掷这个骰子,于是生成对应的word; \\ \hline \end{array}

以上游戏是先生成了语料中所有词的 topic, 然后对每个词在给定 topic 的条件下生成 word。在语料中所有词的 topic 已经生成的条件下,任何两个 word 的生成动作都是可交换的。于是我们把语料中的词进行交换,把具有相同 topic 的词放在一起

\begin{align*}\overrightarrow{\mathbf{w}}’ &= (\overrightarrow{w}_{(1)}, \cdots, \overrightarrow{w}_{(K)}) \\ \overrightarrow{\mathbf{z}}’ &= (\overrightarrow{z}_{(1)}, \cdots, \overrightarrow{z}_{(K)}) \end{align*}

其中, \overrightarrow{w}_{(k)} 表示这些词都是由第 k 个 topic 生成的, \overrightarrow{z}_{(k)} 对应于这些词的 topic 编号,所以 \overrightarrow{z}_{(k)} 中的分量都是 k

对应于概率图中的第二个物理过程 \overrightarrow{\beta} \rightarrow \overrightarrow{\varphi}_k \rightarrow w_{m,n} | k=z_{m,n} ,在 k=z_{m,n} 的限制下,语料中任何两个由 topic k 生成的词都是可交换的,即便他们不再同一个文档中,所以我们此处不再考虑文档的概念,转而考虑由同一个 topic 生成的词。考虑如下过程 \overrightarrow{\beta} \rightarrow \overrightarrow{\varphi}_k \rightarrow \overrightarrow{w}_{(k)} ,容易看出, 此时 \overrightarrow{\beta} \rightarrow \overrightarrow{\varphi}_k 对应于 Dirichlet 分布, \overrightarrow{\varphi}_k \rightarrow \overrightarrow{w}_{(k)} 对应于 Multinomial 分布, 所以整体也还是一个 Dirichlet-Multinomial 共轭结构;

image

同样的,我们可以得到

p(\overrightarrow{w}_{(k)} |\overrightarrow{\beta}) = \frac{\Delta(\overrightarrow{n}_k+\overrightarrow{\beta})}{\Delta(\overrightarrow{\beta})}

其中 \overrightarrow{n}_k = (n_{k}^{(1)}, \cdots, n_{k}^{(V)}) n_{k}^{(t)} 表示第 k 个topic 产生的词中 word t 的个数。进一步,利用 Dirichlet-Multiomial 共轭结构,我们得到参数 \overrightarrow{\varphi}_k 的后验分布恰好是

Dir( \overrightarrow{\varphi}_k| \overrightarrow{n}_k + \overrightarrow{\beta}).

而语料中 K 个 topics 生成words 的过程相互独立,所以我们得到 K 个相互独立的 Dirichlet-Multinomial 共轭结构,从而我们可以得到整个语料中词生成概率

\begin{align}\label{corpus-word-prob} p(\overrightarrow{\mathbf{w}} |\overrightarrow{\mathbf{z}},\overrightarrow{\beta}) &= p(\overrightarrow{\mathbf{w}}’ |\overrightarrow{\mathbf{z}}’,\overrightarrow{\beta}) \notag \\ &= \prod_{k=1}^K p(\overrightarrow{w}_{(k)} | \overrightarrow{z}_{(k)}, \overrightarrow{\beta}) \notag \\ &= \prod_{k=1}^K \frac{\Delta(\overrightarrow{n}_k+\overrightarrow{\beta})}{\Delta(\overrightarrow{\beta})} \quad\quad (**) \end{align}

结合 (*) 和 (**) 于是我们得到

\begin{align}\label{lda-corpus-likelihood} p(\overrightarrow{\mathbf{w}},\overrightarrow{\mathbf{z}} |\overrightarrow{\alpha}, \overrightarrow{\beta}) &= p(\overrightarrow{\mathbf{w}} |\overrightarrow{\mathbf{z}}, \overrightarrow{\beta}) p(\overrightarrow{\mathbf{z}} |\overrightarrow{\alpha}) \notag \\ &= \prod_{k=1}^K \frac{\Delta(\overrightarrow{n}_k+\overrightarrow{\beta})}{\Delta(\overrightarrow{\beta})} \prod_{m=1}^M \frac{\Delta(\overrightarrow{n}_m+\overrightarrow{\alpha})}{\Delta(\overrightarrow{\alpha})} \quad\quad (***) \end{align}

此处的符号表示稍微不够严谨, 向量 \overrightarrow{n}_k , \overrightarrow{n}_m 都用 n 表示, 主要通过下标进行区分, k 下标为 topic 编号, m 下标为文档编号。

Gibbs Sampling

有了联合分布 p(\overrightarrow{\mathbf{w}},\overrightarrow{\mathbf{z}}) , 万能的 MCMC 算法就可以发挥作用了!于是我们可以考虑使用 Gibbs Sampling 算法对这个分布进行采样。当然由于 \overrightarrow{\mathbf{w}} 是观测到的已知数据,只有 \overrightarrow{\mathbf{z}} 是隐含的变量,所以我们真正需要采样的是分布 p(\overrightarrow{\mathbf{z}}|\overrightarrow{\mathbf{w}}) 。在 Gregor Heinrich 那篇很有名的LDA 模型科普文章 Parameter estimation for text analysis 中,是基于 (***) 式推导 Gibbs Sampling 公式的。此小节中我们使用不同的方式,主要是基于 Dirichlet-Multinomial 共轭来推导 Gibbs Sampling 公式,这样对于理解采样中的概率物理过程有帮助。

语料库 \overrightarrow{\mathbf{z}} 中的第 i 个词我们记为 z_i , 其中 i=(m,n) 是一个二维下标,对应于第 m 篇文档的第 n 个词,我们用 \neg i 表示去除下标为 i 的词。那么按照 Gibbs Sampling 算法的要求,我们要求得任一个坐标轴 i 对应的条件分布 p(z_i = k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}) 。假设已经观测到的词 w_i = t , 则由贝叶斯法则,我们容易得到

\begin{align*}p(z_i = k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}) \propto p(z_i = k, w_i = t |\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) \\ \end{align*}

由于 z_i = k, w_i = t 只涉及到第 m 篇文档和第 k 个 topic,所以上式的条件概率计算中, 实际上也只会涉及到如下两个Dirichlet-Multinomial 共轭结构

其它的 M+K-2 个 Dirichlet-Multinomial 共轭结构和 z_i = k, w_i = t 是独立的。

由于在语料去掉第 i 个词对应的 (z_i, w_i) ,并不改变我们之前讨论的 M+K 个 Dirichlet-Multinomial 共轭结构,只是某些地方的计数会减少。所以 \overrightarrow{\theta}_m, \overrightarrow{\varphi}_k 的后验分布都是 Dirichlet:

\begin{align*}p(\overrightarrow{\theta}_m|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) &= Dir(\overrightarrow{\theta}_m| \overrightarrow{n}_{m,\neg i} + \overrightarrow{\alpha}) \\ p(\overrightarrow{\varphi}_k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) &= Dir( \overrightarrow{\varphi}_k| \overrightarrow{n}_{k,\neg i} + \overrightarrow{\beta}) \end{align*}

使用上面两个式子,把以上想法综合一下,我们就得到了如下的 Gibbs Sampling 公式的推导

\begin{align*}p(z_i = k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}) & \propto p(z_i = k, w_i = t |\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) \\ &= \int p(z_i = k, w_i = t, \overrightarrow{\theta}_m,\overrightarrow{\varphi}_k | \overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) d \overrightarrow{\theta}_m d \overrightarrow{\varphi}_k \\ &= \int p(z_i = k, \overrightarrow{\theta}_m|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) \cdot p(w_i = t, \overrightarrow{\varphi}_k | \overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) d \overrightarrow{\theta}_m d \overrightarrow{\varphi}_k \\ &= \int p(z_i = k |\overrightarrow{\theta}_m) p(\overrightarrow{\theta}_m|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) \cdot p(w_i = t |\overrightarrow{\varphi}_k) p(\overrightarrow{\varphi}_k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}_{\neg i}) d \overrightarrow{\theta}_m d \overrightarrow{\varphi}_k \\ &= \int p(z_i = k |\overrightarrow{\theta}_m) Dir(\overrightarrow{\theta}_m| \overrightarrow{n}_{m,\neg i} + \overrightarrow{\alpha}) d \overrightarrow{\theta}_m \\ & \hspace{0.2cm} \cdot \int p(w_i = t |\overrightarrow{\varphi}_k) Dir( \overrightarrow{\varphi}_k| \overrightarrow{n}_{k,\neg i} + \overrightarrow{\beta}) d \overrightarrow{\varphi}_k \\ &= \int \theta_{mk} Dir(\overrightarrow{\theta}_m| \overrightarrow{n}_{m,\neg i} + \overrightarrow{\alpha}) d \overrightarrow{\theta}_m \cdot \int \varphi_{kt} Dir( \overrightarrow{\varphi}_k| \overrightarrow{n}_{k,\neg i} + \overrightarrow{\beta}) d \overrightarrow{\varphi}_k \\ &= E(\theta_{mk}) \cdot E(\varphi_{kt}) \\ &= \hat{\theta}_{mk} \cdot \hat{\varphi}_{kt} \\ \label{gibbs-sampling-deduction} \end{align*}

以上推导估计是整篇文章中最复杂的数学了,表面上看上去复杂,但是推导过程中的概率物理意义是简单明了的: z_i = k, w_i = t 的概率只和两个 Dirichlet-Multinomial 共轭结构关联。而最终得到的 \hat{\theta}_{mk}, \hat{\varphi}_{kt} 就是对应的两个 Dirichlet 后验分布在贝叶斯框架下的参数估计。借助于前面介绍的Dirichlet 参数估计的公式 ,我们有

\begin{align*}\hat{\theta}_{mk} &= \frac{n_{m,\neg i}^{(k)} + \alpha_k}{\sum_{k=1}^K (n_{m,\neg i}^{(k)} + \alpha_k)} \\ \hat{\varphi}_{kt} &= \frac{n_{k,\neg i}^{(t)} + \beta_t}{\sum_{t=1}^V (n_{k,\neg i}^{(t)} + \beta_t)} \end{align*}

于是,我们最终得到了 LDA 模型的 Gibbs Sampling 公式

\begin{equation}\label{gibbs-sampling} p(z_i = k|\overrightarrow{\mathbf{z}}_{\neg i}, \overrightarrow{\mathbf{w}}) \propto \frac{n_{m,\neg i}^{(k)} + \alpha_k}{\sum_{k=1}^K (n_{m,\neg i}^{(k)} + \alpha_k)} \cdot \frac{n_{k,\neg i}^{(t)} + \beta_t}{\sum_{t=1}^V (n_{k,\neg i}^{(t)} + \beta_t)} \end{equation}

这个公式是很漂亮的, 右边其实就是 p(topic|doc) \cdot p(word|topic) ,这个概率其实是 doc \rightarrow topic \rightarrow word 的路径概率,由于topic 有 K 个,所以 Gibbs Sampling 公式的物理意义其实就是在这 K 条路径中进行采样。

image

Training and Inference

有了 LDA 模型,当然我们的目标有两个

有了 Gibbs Sampling 公式, 我们就可以基于语料训练 LDA 模型,并应用训练得到的模型对新的文档进行 topic 语义分析。训练的过程就是获取语料中的 (z,w) 的样本,而模型中的所有的参数都可以基于最终采样得到的样本进行估计。训练的流程很简单:

\begin{array}{l} \hline\text{LDA Train}\\ \hline 1: 随机初始化,对语料中的每篇文档每个词w,随机赋予一个topic编号z;\\ 2: 重新扫描语料库,对每个词w,按照Gibbs Sampling公式重新采样它\\ \quad \; 的topic,在语料中进行更新\\ 3: 重复以上语料库的更新采样过程直到Gibbs Sampling收敛;\\ 4: 统计语料库的topic-word共现频率矩阵,该矩阵就是LDA的模型; \\ \hline \end{array}

对于 Gibbs Sampling 算法实现的细节,请参考 Gregor Heinrich 的 Parameter estimation for text analysis 中对算法的描述,以及 PLDA 的代码实现,此处不再赘述。

由这个topic-word 频率矩阵我们可以计算每一个 p(word|topic) 概率,从而算出模型参数 \overrightarrow{\varphi}_1, \cdots, \overrightarrow{\varphi}_K , 这就是上帝用的 K 个 topic-word 骰子。当然,语料中的文档对应的骰子参数 \overrightarrow{\theta}_1, \cdots, \overrightarrow{\theta}_M 在以上训练过程中也是可以计算出来的,只要在 Gibbs Sampling 收敛之后,统计每篇文档中的 topic 的频率分布,我们就可以计算每一个 p(topic|doc) 概率,于是就可以计算出每一个 \overrightarrow{\theta}_m 。由于参数 \overrightarrow{\theta}_m 是和训练语料中的每篇文档相关的,对于我们理解新的文档并无用处,所以工程上最终存储 LDA 模型时候一般没有必要保留。通常,在 LDA 模型训练的过程中,我们是取 Gibbs Sampling 收敛之后的 n 个迭代的结果进行平均来做参数估计,这样模型质量更高。

有了 LDA 的模型,对于新来的文档 doc_{new} , 我们如何做该文档的 topic 语义分布的计算呢?基本上 inference 的过程和 training 的过程完全类似。对于新的文档, 我们只要认为 Gibbs Sampling 公式中的 \hat{\varphi}_{kt} 部分是稳定不变的,是由训练语料得到的模型提供的,所以采样过程中我们只要估计该文档的 topic 分布 \overrightarrow{\theta}_{new} 就好了。

\begin{array}{l} \hline\text{LDA Inference}\\ \hline 1: 随机初始化,对当前温度中的每个词w,随机的赋一个topic编号z;\\ 2: 重新扫描当前温度,按照Gibbs Sampling公式,对每个词w,重新采样它的topic;\\ 3: 重复以上过程直到Gibbs Sampling收敛;\\ 4: 统计温度中的topic分布,该分布就是\vec { \theta } _ { n e w }; \\ \hline \end{array}

posted @ 2019-01-02 16:58:07
评论加载中...

发表评论

😃😄😁😆😅🤣😂🙂😉😊🥰😍😘😜🤪😝🤑🤔🤨😏😒🙄😮‍💨🤮😵‍💫🥳😎😳🥺😭😡(这里的表情可以复制)