论文笔记--Multi-Passage Machine Reading Comprehension with Cross-Passage Answer Verification (V-Net)
First published on indexfziq.github.io at 2019-03-08 14:00:00
Introduction
本文出自Baidu NLP Research,在MS MARCO的V1版本上是第二;V2版本上QA任务是第三,well-formed任务是第二。代码没公开,基本的思想就是提出两个辅助任务,辅助抽取更好的答案片段。
Motivation
这篇文章的动机很直接,文章对数据进行分析,提出一种假设:正确的答案往往在10个摘要中出现频率高,且具有很大的相似性;然后错误的答案通常和其他答案不一样。
Contribution
实现了一个端到端的模型,每篇文章抽取的片段之间相互监督,再算一个相似度作为验证模块,对片段的内容再做一个分析,应用多任务学习使得抽取的片段更好。
Model
下面对模型详细介绍,最主要的是Answer Content Modeling和Cross-Passage Answer Verification,其他的地方和其他模型大同小异。
Overview
整个模型是End-to-End的,输入是Question和Passages,输出是Answer,也就是抽取的span,所以说,这应该是抽取式模型里效果最好的了。
Question and Passage Modeling
把每一个token的Glove word embedding和character embedding串起来,然后过BiLSTM得到每一个sequence的表示,公式如下:
U t Q = B i L S T M Q ( u t − 1 Q , [ e t Q , c t Q ] ) U_t^Q = BiLSTM_Q(u_{t-1}^Q,[e^Q_t,c^Q_t]) UtQ=BiLSTMQ(ut−1Q,[etQ,ctQ]) U t P i = B i L S T M P ( u t − 1 P i , [ e t P i , c t P i ] ) U_t^{P_i} = BiLSTM_P(u_{t-1}^{P_i},[e^{P_i}_t,c^{P_i}_t]) UtPi=BiLSTMP(ut−1Pi,[etPi,ctPi])得到表示之后,采用BiDAF计算相似度的方式: S t P i = u t Q ⊺ ⋅ u t P i S_{t}^{P_i}={u^Q_t}\intercal \cdot u^{P_i}_t StPi=utQ⊺⋅utPi,然后再喂给BiLSTM得到Matching之后的Passages表示 V t P V_t^P VtP: V t P i = B i L S T M Q ( v t − 1 P i , S t P i ) V_t^{P_i} = BiLSTM_Q(v_{t-1}^{P_i},S_{t}^{P_i}) VtPi=BiLSTMQ(vt−1Pi,StPi)
Answer Boundary Prediction
该模块对每个Passage都抽取答案片段,具体的就是指针网络,输入是 V t P V_t^P VtP,输出是span两端的概率,公式如下: g k t = w 1 a ⊺ t a n h ( W 2 a [ V t P , h t − 1 a ] ) g_k^t = {w^a_1}\intercal tanh(W_2^a[V_t^P,h^a_{t-1}]) gkt=w1a⊺tanh(W2a[VtP,ht−1a]) a k t = e x p ( g k t ) / ∑ j = 1 ∣ p ∣ e x p ( g k j ) a_k^t=exp(g_k^t)/\sum\nolimits_{j=1}^{|p|}exp(g_k^j) akt=exp(gkt)/∑j=1∣p∣exp(gkj) c t = ∑ j = 1 ∣ p ∣ a k t V t P c_t=\sum\nolimits_{j=1}^{|p|}a_k^t V_t^P ct=∑j=1∣p∣aktVtP h a t = L S T M ( h a t − 1 , c t ) h_a^t=LSTM(h_a^{t-1},c_t) hat=LSTM(hat−1,ct)这部分的输出是片段起始位置和终止位置的 a k t a_k^t akt,对于指针网络的详细计算参见Match-LSTM。
Answer Content Modeling
该模块尝试对Passage的内容进行建模,也就是本文的动机:越正确的答案,出现频率越高,且具有很大的相似性;错误的答案通常和其他答案不一样。因此,输入是 V t P V_t^P VtP,过ReLU和sigmoid函数,对每个passage的内容加一个门控,算出来的权重 p k c p^c_k pkc: p k c = s i g m o i d ( W 1 c ⊺ R e L U ( W 2 c V t P ) ) p^c_k = sigmoid({W_1^c}\intercal ReLU(W_2^cV_t^P)) pkc=sigmoid(W1c⊺ReLU(W2cVtP))最后该模块会算一个综合考虑所有token的Passage表示(加权求和),增强了内容相似度分数更高的Passage表示,文中称之为Answer Content: r A i = 1 P i ∑ k = 1 ∣ p i ∣ p k c [ e k P i , c k P i ] r^{A_i}=\frac{1}{P_i}\sum\nolimits_{k=1}^{|p_i|}p_k^c[e_k^{P_i},c_k^{P_i}] rAi=Pi1∑k=1∣pi∣pkc[ekPi,ckPi]
然后将此用于计算下一部分的答案验证。
Cross-Passage Answer Verification
该模块输入每个passage的Answer Content,过Attention Pooling,综合考虑所有的passage,相互比较一下,最后用类似于Dual Attention的方式叠加,算出最终的得分:
s i , j = { 0 if i=j r A i ⊺ ⋅ r A j otherwise s_{i,j}=
{0rAi⊺⋅rAjamp;if i=jamp;otherwise
si,j={0rAi⊺⋅rAjif i=jotherwise a i , j = e x p ( s i , j ) / ∑ k = 1 n e x p ( s i , k ) a_{i,j}=exp(s_{i,j})/\sum\nolimits_{k=1}^{n}exp(s_{i,k}) ai,j=exp(si,j)/∑k=1nexp(si,k) r ~ A i = ∑ j = 1 n a i , j r A j \tilde{r}^{A_i}=\sum\nolimits_{j=1}^{n}a_{i,j}{r}^{A_j} r~Ai=∑j=1nai,jrAj得到attention权重化的答案内容的表示,和每一个篇章各自的答案内容做点积和串联操作,得到打分,归一化后就得到对每一个抽取的答案的概率分布 p y i v p^v_{y_i} pyiv并输出,运算关系如下:
g i v = w v ⊺ [ r A j , r ~ A i , r A j ⊙ r ~ A i ] g_i^v={w^v}\intercal [r^{A_j},\tilde{r}^{A_i},r^{A_j}\odot\tilde{r}^{A_i}] giv=wv⊺[rAj,r~Ai,rAj⊙r~Ai] p i v = e x p ( g v , i ) / ∑ j = 1 n e x p ( g v , j ) p^v_i=exp(g_{v,i})/\sum\nolimits_{j=1}^{n}exp(g_{v,j}) piv=exp(gv,i)/∑j=1nexp(gv,j)
Training
模型的Loss由三部分组成,Model部分也介绍了每部分的输出,Multi-Loss如下:
L b o u n d a r y = − 1 N ∑ i = 1 N ( l o g α y i 1 1 + l o g α y i 1 2 2 ) L_{boundary}=-\frac{1}{N}\sum_{i=1}^{N}(log{\alpha}^1_{y_i^1}+log{\alpha}^2_{y_i^12}) Lboundary=−N1i=1∑N(logαyi11+logαyi122) L c o n t e n t = − 1 N 1 ∣ P ∣ ∑ i = 1 N ∑ j = 1 ∣ P ∣ ( y k c l o g p k c + ( 1 − y k c ) l o g ( 1 − p k c ) ) L_{content}=-\frac{1}{N}\frac{1}{|P|}\sum_{i=1}^{N}\sum_{j=1}^{|P|}(y_k^clog{p}^c_k+(1-y_k^c)log(1-{p}^c_k)) Lcontent=−N1∣P∣1i=1∑Nj=1∑∣P∣(ykclogpkc+(1−ykc)log(1−pkc)) L v e r i t y = − 1 N ∑ i = 1 N l o g p y i v v L_{verity}=-\frac{1}{N}\sum_{i=1}^{N}log{p}^v_{y_i^v} Lverity=−N1i=1∑Nlogpyivv
综上: L = L b o u n d a r y + β 1 L c o n t e n t + β 2 L v e r i t y L=L_{boundary}+\beta_1{L_{content}}+\beta_2{L_{verity}} L=Lboundary+β1Lcontent+β2Lverity
最后两项损失的系数在实验部分设置的是 0.5 0.5 0.5,优化器使用的是Adam。
Experiment
在MAMARCO第一版上很接近人类水平,也就是说抽取式模型对数据集的处理就可以了,也从另一个方面说明有点违背了MARCO的本意,与其他模型的对比,评测指标是BLEU-1和ROUGE-L:
下图是在DuReader上的结果,中文的生成式阅读理解数据集,评测指标是BLEU-4和ROUGE-L:
Analysis
本文对自己提出的Answer Content和Verify部分进行了分析,发现综合打分的作用对一些case是有效果的,比如:
并且从下图也可以看出,span部分的Answer Content概率分布与起止位置的点很吻合:
去除实验部分,感觉都同等重要,就没有放上来。
Conclusion
通过分析,可以发现对抽出来的答案进行进一步的内容计算和验证,然后用Multi-Loss进行联合训练,是有助于抽取的片段更加准确,但是这仍不是MARCO的初衷,还是extrative MRC。因此,多任务学习还是适用性比较强的,未来MARCO的工作应该更多地向生成式发展。
References
- Multi-Passage Machine Reading Comprehension with Cross-Passage Answer Verification. Yizhong Wang, Kai Liu, Jing Liu, Wei He, Yajuan Lyu, Hua Wu, Sujian Li and Haifeng Wang. ACL 2018.
- MAMARCO leaderboard: http://www.msmarco.org/leaders.aspx
- https://github.com/IndexFziQ/MSMARCO-MRC-Analysis.