对话系统论文集(20)-阅读state tracking笔记
论文《Global-Locally Self-Attentive Encoder for Dialogue State Tracking》
论文Sequicity: Simplifying Task-oriented Dialogue Systems with Single
Sequence-to-Sequence Architectures
第一篇
输入是:n是一句话的单词个数
输出是:
模型框架:global LSTM+local LSTM ->global attn + local attn
global是slot之间
local是slot自己的value信息
生成的是state的信息,与要产生的action没有关系。
第二篇
先生成B(就是槽值对),
然后生成回复(KB结果结合之前的生成)使用encoder-decoder
数据集不是dstc2