知识图谱论文阅读

EFFICIENT PROBABILISTIC LOGIC REASONING WITH GRAPH NEURAL NETWORKS

ICLR 2020

Probabilistic Logic Neural Networks for Reasoning

nips 2019

1. 摘要

  • 结合逻辑规则和知识图谱嵌入模型。将知识图谱看作一个一阶逻辑知识库,知识库中每条规则都有一定的权重,采用马尔可夫逻辑网对一阶逻辑知识库进行建模,学习所有可能的三元组的联合概率分布。网络采用EM算法进行优化。在E-步骤中,使用知识图嵌入模型来推断缺失的三元组,而在M-步骤中,基于观察到的和预测的三元组来更新逻辑规则的权重。
  • 本文提供了一种框架,实现了 知识图谱 --> 一阶逻辑知识库 --> 马尔可夫逻辑网 的转化。 将任务转化为求解关于三元组的联合概率分布问题。

2.建模

知识图谱论文阅读

  • 建模目标
    采用马尔可夫逻辑建模已观测三元组、隐藏三元组的特征值(0,1)的联合概率分布:

p ( v O , v H ) = 1 Z exp ⁡ ( ∑ l ∈ L w l ∑ g ∈ G l 1 { g  is true  } ) = 1 Z exp ⁡ ( ∑ l ∈ L w l n l ( v O , v H ) ) p\left(\mathbf{v}_{O}, \mathbf{v}_{H}\right)=\frac{1}{Z} \exp \left(\sum_{l \in L} w_{l} \sum_{g \in G_{l}} \mathbb{1}\{g \text { is true }\}\right)=\frac{1}{Z} \exp \left(\sum_{l \in L} w_{l} n_{l}\left(\mathbf{v}_{O}, \mathbf{v}_{H}\right)\right) p(vO,vH)=Z1explLwlgGl1{g is true }=Z1exp(lLwlnl(vO,vH))

  • 模型训练目标
    最大化已观测三元组值的log似然:
    log ⁡ p w ( v O ) ≥ L ( q θ , p w ) = E q θ ( v H ) [ log ⁡ p w ( v O , v H ) − log ⁡ q θ ( v H ) ] \log p_{w}\left(\mathbf{v}_{O}\right) \geq \mathcal{L}\left(q_{\theta}, p_{w}\right)=\mathbb{E}_{q_{\theta}\left(\mathbf{v}_{H}\right)}\left[\log p_{w}\left(\mathbf{v}_{O}, \mathbf{v}_{H}\right)-\log q_{\theta}\left(\mathbf{v}_{H}\right)\right] logpw(vO)L(qθ,pw)=Eqθ(vH)[logpw(vO,vH)logqθ(vH)]

  • 预测目标
    p w ( v H ∣ v O ) p_{w}\left(\mathbf{v}_{H} \mid \mathbf{v}_{O}\right) pw(vHvO)

模型实施

** 模型训练过程**
马尔可夫网络的优化训练采用变分EM算法,引入隐藏变量的分布 q θ ( v H ) q_{\theta}\left(\mathbf{v}_{H}\right) qθ(vH),最小化 q θ ( v H ) q_{\theta}\left(\mathbf{v}_{H}\right) qθ(vH)与真实分布 p w ( v H ∣ v O ) p_{w}\left(\mathbf{v}_{H} \mid \mathbf{v}_{O}\right) pw(vHvO) 之间的KL散度。

变分EM推理

  • E步:
    固定 p w p_{w} pw, 优化 q θ q_{\theta} qθ, 其中 q θ q_{\theta} qθ 的参数又知识图谱嵌入模型(transE等)给出。
  • M步
    固定 q θ q_{\theta} qθ, 优化 p w p_{w} pw

总结

论文给出了知识图谱到马尔科夫逻辑网的转化框架,并重新定义了知识图谱补全任务的建模目标和训练方法;同时结合了逻辑规则和嵌入模型,能有效结合两者的优点。 缺点是推理过程繁琐。

todo list

Adaptive Structural Fingerprints for Graph Attention Networks

本文考虑了半监督学习环境下图节点分类的问题。在对节点进行分类时,决策是基于节点的特征以及其邻居的加权组合(其中权重是使用学习的注意力机制来计算的)。作者通过提出一种不同的方法来计算邻近节点上的注意力,从而扩展了最近的Graph Attention Networks(GAT)论文。这种新的关注机制不仅考虑了它们的特征相似性,而且还考虑了额外的结构信息,这也使他们的方法不仅可以参加直接邻居,而且可以参加k跳邻居。

15

Graph inference learning for semi-supervised classification

作者提出了一种图推理学习框架,以解决图中稀疏标记数据的问题。作者使用结构信息和节点属性定义结构关系,然后将其用于从已知标签中推断未知标签。