本文摘抄自靳志辉的《LDA 数学八卦》.
游戏规则
对于上述的 PLSA 模型,贝叶斯学派显然是有意见的,doc-topic 骰子和 topic-word 骰子都是模型中的参数,参数都是随机变量,怎么能没有先验分布呢?于是,类似于对 Unigram Model 的贝叶斯改造, 我们也可以如下在两个骰子参数前加上先验分布从而把 PLSA 对应的游戏过程改造为一个贝叶斯的游戏过程。由于和都对应到多项分布,所以先验分布的一个好的选择就是Drichlet 分布,于是我们就得到了 LDA(Latent Dirichlet Allocation)模型。
在 LDA 模型中, 上帝是按照如下的规则玩文档生成的游戏的
假设语料库中有篇文档,所有的的word和对应的 topic 如下表示
其中,表示第篇文档中的词,表示这些词对应的 topic 编号。
物理过程分解
使用概率图模型表示, LDA 模型的游戏过程如图所示。
这个概率图可以分解为两个主要的物理过程:
- , 这个过程表示在生成第篇文档的时候,先从第一个坛子中抽了一个doc-topic 骰子, 然后投掷这个骰子生成了文档中第个词的topic编号;
- , 这个过程表示用如下动作生成语料中第篇文档的第个词:在上帝手头的个topic-word 骰子中,挑选编号为的那个骰子进行投掷,然后生成 word;
理解 LDA最重要的就是理解这两个物理过程。 LDA 模型在基于个 topic 生成语料中的篇文档的过程中, 由于是 bag-of-words 模型,有一些物理过程是相互独立可交换的。由此, LDA 生成模型中,篇文档会对应于个独立的 Dirichlet-Multinomial 共轭结构;个 topic 会对应于个独立的 Dirichlet-Multinomial 共轭结构。所以理解 LDA 所需要的所有数学就是理解 Dirichlet-Multiomail 共轭,其它都就是理解物理过程。现在我们进入细节, 来看看 LDA 模型是如何被分解为个Dirichlet-Multinomial 共轭结构的。
由第一个物理过程,我们知道表示生成第篇文档中的所有词对应的topics,显然对应于 Dirichlet 分布,对应于 Multinomial 分布, 所以整体是一个 Dirichlet-Multinomial 共轭结构;
前文介绍 Bayesian Unigram Model 的小节中我们对 Dirichlet-Multinomial 共轭结构做了一些计算。借助于该小节中的结论,我们可以得到
其中,表示第篇文档中第个topic 产生的词的个数。进一步,利用 Dirichlet-Multiomial 共轭结构,我们得到参数的后验分布恰好是
由于语料中篇文档的 topics 生成过程相互独立,所以我们得到个相互独立的 Dirichlet-Multinomial 共轭结构,从而我们可以得到整个语料中 topics 生成概率
目前为止,我们由篇文档得到了个 Dirichlet-Multinomial 共轭结构,还有额外个 Dirichlet-Multinomial 共轭结构在哪儿呢?在上帝按照之前的规则玩 LDA 游戏的时候,上帝是先完全处理完成一篇文档,再处理下一篇文档。文档中每个词的生成都要抛两次骰子,第一次抛一个doc-topic骰子得到 topic, 第二次抛一个topic-word骰子得到 word,每次生成每篇文档中的一个词的时候这两次抛骰子的动作是紧邻轮换进行的。如果语料中一共有个词,则上帝一共要抛次骰子,轮换的抛doc-topic骰子和 topic-word骰子。但实际上有一些抛骰子的顺序是可以交换的,我们可以等价的调整次抛骰子的次序:前次只抛doc-topic骰子得到语料中所有词的 topics,然后基于得到的每个词的 topic 编号,后次只抛topic-word骰子生成个word。于是上帝在玩 LDA 游戏的时候,可以等价的按照如下过程进行:
以上游戏是先生成了语料中所有词的 topic, 然后对每个词在给定 topic 的条件下生成 word。在语料中所有词的 topic 已经生成的条件下,任何两个 word 的生成动作都是可交换的。于是我们把语料中的词进行交换,把具有相同 topic 的词放在一起
其中,表示这些词都是由第个 topic 生成的,对应于这些词的 topic 编号,所以中的分量都是。
对应于概率图中的第二个物理过程,在的限制下,语料中任何两个由 topic生成的词都是可交换的,即便他们不再同一个文档中,所以我们此处不再考虑文档的概念,转而考虑由同一个 topic 生成的词。考虑如下过程,容易看出, 此时对应于 Dirichlet 分布,对应于 Multinomial 分布, 所以整体也还是一个 Dirichlet-Multinomial 共轭结构;
同样的,我们可以得到
其中,表示第个topic 产生的词中 word的个数。进一步,利用 Dirichlet-Multiomial 共轭结构,我们得到参数的后验分布恰好是
而语料中个 topics 生成words 的过程相互独立,所以我们得到个相互独立的 Dirichlet-Multinomial 共轭结构,从而我们可以得到整个语料中词生成概率
结合 (*) 和 (**) 于是我们得到
此处的符号表示稍微不够严谨, 向量,都用表示, 主要通过下标进行区分,下标为 topic 编号,下标为文档编号。
Gibbs Sampling
有了联合分布, 万能的 MCMC 算法就可以发挥作用了!于是我们可以考虑使用 Gibbs Sampling 算法对这个分布进行采样。当然由于是观测到的已知数据,只有是隐含的变量,所以我们真正需要采样的是分布。在 Gregor Heinrich 那篇很有名的LDA 模型科普文章 Parameter estimation for text analysis 中,是基于 (***) 式推导 Gibbs Sampling 公式的。此小节中我们使用不同的方式,主要是基于 Dirichlet-Multinomial 共轭来推导 Gibbs Sampling 公式,这样对于理解采样中的概率物理过程有帮助。
语料库中的第个词我们记为, 其中是一个二维下标,对应于第篇文档的第个词,我们用表示去除下标为的词。那么按照 Gibbs Sampling 算法的要求,我们要求得任一个坐标轴对应的条件分布。假设已经观测到的词, 则由贝叶斯法则,我们容易得到
由于只涉及到第篇文档和第个 topic,所以上式的条件概率计算中, 实际上也只会涉及到如下两个Dirichlet-Multinomial 共轭结构
其它的个 Dirichlet-Multinomial 共轭结构和是独立的。
由于在语料去掉第个词对应的,并不改变我们之前讨论的个 Dirichlet-Multinomial 共轭结构,只是某些地方的计数会减少。所以的后验分布都是 Dirichlet:
使用上面两个式子,把以上想法综合一下,我们就得到了如下的 Gibbs Sampling 公式的推导
以上推导估计是整篇文章中最复杂的数学了,表面上看上去复杂,但是推导过程中的概率物理意义是简单明了的:的概率只和两个 Dirichlet-Multinomial 共轭结构关联。而最终得到的就是对应的两个 Dirichlet 后验分布在贝叶斯框架下的参数估计。借助于前面介绍的Dirichlet 参数估计的公式 ,我们有
于是,我们最终得到了 LDA 模型的 Gibbs Sampling 公式
这个公式是很漂亮的, 右边其实就是,这个概率其实是的路径概率,由于topic 有个,所以 Gibbs Sampling 公式的物理意义其实就是在这条路径中进行采样。
Training and Inference
有了 LDA 模型,当然我们的目标有两个
- 估计模型中的参数和;
- 对于新来的一篇文档,我们能够计算这篇文档的 topic 分布
有了 Gibbs Sampling 公式, 我们就可以基于语料训练 LDA 模型,并应用训练得到的模型对新的文档进行 topic 语义分析。训练的过程就是获取语料中的的样本,而模型中的所有的参数都可以基于最终采样得到的样本进行估计。训练的流程很简单:
对于 Gibbs Sampling 算法实现的细节,请参考 Gregor Heinrich 的 Parameter estimation for text analysis 中对算法的描述,以及 PLDA 的代码实现,此处不再赘述。
由这个topic-word 频率矩阵我们可以计算每一个概率,从而算出模型参数, 这就是上帝用的个 topic-word 骰子。当然,语料中的文档对应的骰子参数在以上训练过程中也是可以计算出来的,只要在 Gibbs Sampling 收敛之后,统计每篇文档中的 topic 的频率分布,我们就可以计算每一个概率,于是就可以计算出每一个。由于参数是和训练语料中的每篇文档相关的,对于我们理解新的文档并无用处,所以工程上最终存储 LDA 模型时候一般没有必要保留。通常,在 LDA 模型训练的过程中,我们是取 Gibbs Sampling 收敛之后的个迭代的结果进行平均来做参数估计,这样模型质量更高。
有了 LDA 的模型,对于新来的文档, 我们如何做该文档的 topic 语义分布的计算呢?基本上 inference 的过程和 training 的过程完全类似。对于新的文档, 我们只要认为 Gibbs Sampling 公式中的部分是稳定不变的,是由训练语料得到的模型提供的,所以采样过程中我们只要估计该文档的 topic 分布就好了。