Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm

Conditional Probability Queries

NP-Hard Problem

在一个概率图模型里,查询一组变量为给定值时的概率是一个NP-HARD问题,不仅如此,降低问题所需答案的精度,仍然是一个NP-Hard问题。因为求解概率分母Z的时候,涉及到众多变量的众多组合情况,需要求的因子太多了。

Sum-Product

条件概率的计算上,虽然分子只是连乘了几个不同的因子,变量后我们可以把与这个变量取值矛盾的部分给删除掉,计算量有所缩减。除此之外,求解条件概率的时候,分子采用联合概率P(Y,E=e)P(Y, E = e),分母采用边缘概率P(E=e)P(E = e),这样这俩概率,在计算时无需求解归一化分母Z,因为Z将会消除。

MAP Inference

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm实际上MAP就是在求,已经知道E=eE=e的情况下,除了EE以外的其他变量YY最有可能是多少,这里对YY的理解应该是,不能等于E,但也不是任取,总之得有关联。YY的最大后验并非其边缘概率的最大值,而是在已经知道EE的情况下,YY最大的概率值。

NP-Hard Problem

很遗憾,在给定概率图模型上寻找给定Evidence的最大后验,这又是一个NP-Hard问题降低精度后还是一样Hard。

Max-Product

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm这个后验概率的分母是一个常值,和条件概率不同,由于我们需要最大化它,而不是求它,可以忽略分母,只看分子。而分子我们可以看一下,是一系列reduced factor的乘积,我们需要再这些乘积之间横向比较,选出一个最大值,这才是我们要求解的最大后验对应的YY

Variable Elimination Algorithm

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm从这个图例我们可以看出来,我们把某个与求和有关的因子(ϕ1(A,B))(\phi_{1}(A,B))留在求和号Σ\Sigma右边,把其他因子提到前面,最后这个求和就可以把A给消元了,留下一个先验τ1(B)\tau_{1}(B),至此,A就没了,B成了马尔科夫链的末端。
Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm同样的,我们可以把B也给消元了。

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm更复杂的情况下,可以看到,我们再边缘化D的时候,遇到了两项,我们对这两项求和,得到了一个有两个scope元素的因子τ2(G,I)\tau_{2}(G,I)。这个生成的τ\tau以后再遇到需要消元的时候可以变成一个新的τ\tau

Variable Elimination with evidence

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm当有Evidence时,我们消元的时候就不对那些已经有Evidence的变量进行求和。因为他们就只有一个取值。除此之外,还需要将包含Evidence变量的因子替换成reduced factor。

Variable Elimination in Marcov Networks

Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm马尔可夫网络的消元和前面一模一样。最后求出来的那个τ3=P~(D)P(D)\tau_{3} = \tilde{P}(D) \propto P(D)
Daphne Koller 概率图模型原理与技术(4)- Variable Elimination Algorithm实际上消元就是对包含待消元元素的因子进行求和的过程。消元之后,因子图中会减少一个被消元变量ZZ和一到多个被求和因子ϕ\phi,增加一个因子τ\tau,而这个τ\tau就是那些被求和因子的和,被作为新的因子添加到因子图。但是若最后想得到一个分布,需要对最终求得的τ\tau进行一波归一化操作。

Updated