[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))

[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))
在上面给出的例子(1)中,任务是判断e1和e2的关系,在进行判断的时候,借助了e1和e3的关系. e1和e3的关系是在判断e1和e2之前已经识别出来.那么又引出了一个问题:如何表示e1和e3的关系?
[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))

图1给出的是实体e1和e2实体之间的关系判定,由下至上看此图,输入有两个序列(1)句子序列x1, x2, …, xn
(2)实体标签序列:标签B-, I-, L-, O, U-, 代表具体的实体类型,因为要判断e1和e2的关系,此时其他实体的标签全都打成O

在LSTM layer层的最后一个输出os就表示了实体e1和e2以及它们的关系

Figure2 就是利用其他关系判断两个目标实体之间的关系:
假设目前已经识别出的关系有两个r1r2, 以及目前需要判定的目标实体e1和e2的关系rs,  三个关系的embedding表示o1, o2以及os就是由Figure 1的LSTM Layer层的最后一个输出得到.经由attention判断o1, o2哪个对os影响程度,利用公式:
[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))

最后osoc串接后经由前馈神经网络得到关系:
[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))