论文笔记:Network Representation Learning with Rich Text Information

network representation learning with rich text information

时间仓促,没有特别仔细的看(之后再更新)

论文的成果有两点:

  1. 证明deepwalk其实就等价于matrix factorization(DW可以用MF表示)

论文笔记:Network Representation Learning with Rich Text Information
论文笔记:Network Representation Learning with Rich Text Information
其中,W矩阵是在skip-gram中中心词的表达,H是上下文的表达。
M在使用softmax的时候是log(词对(vi,ci)出现的次数/vi出现的次数)
2. 对网络进行分解,变成三个矩阵相乘,其中的一部分是text information
论文笔记:Network Representation Learning with Rich Text Information
其中的T表示text information矩阵
M与1中的M一样,HT是1中的H
学习的优化函数:
论文笔记:Network Representation Learning with Rich Text Information