插槽填充(Slot Filling)和意图检测(Inten Detection)近几年相关论文总结

本文按照论文发表年份进行排序,主要针对Slot Filling和Inten Detection联合网络。同时针对每一篇论文都有一个更详细的论文阅读笔记。

Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling(2016)

基于注意力的编码器-解码器神经网络模型最近在机器翻译和语音识别中显示出令人鼓舞的结果。在这项工作中,我们提出了一种基于注意力的神经网络模型,用于联合意图检测和slot filling,这对于许多语音理解和对话系统都是至关重要的步骤。与机器翻译和语音识别不同,对齐在slot filling中是显式的。我们探索将对齐信息整合到编码器-解码器框架中的不同策略。从编码器-解码器模型中的注意力机制中学习,我们进一步建议将注意力引入基于对齐的RNN模型。这种关注为意图分类和slot filling预测提供了更多信息。我们的独立任务模型在ATIS任务上实现了最优的意图检测错误率和slot fillingF1分数。与独立任务模型相比,我们的联合训练模型在意图检测上进一步获得了0.56%的绝对误差(相对值23.8%的相对误差),在slot filling上获得了0.23%的绝对增益。
插槽填充(Slot Filling)和意图检测(Inten Detection)近几年相关论文总结
笔记:Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling论文笔记

Slot-Gated Modeling for Joint Slot Filling and Intent Prediction(2018)

基于注意力的递归神经网络模型用于联合意图检测和插槽填充,具有最先进的性能,同时具有独立的注意力权重。考虑到插槽和意图之间存在很强的关系,本文提出了一种插槽门,其重点是学习意图和插槽注意向量之间的关系,以便通过全局优化获得更好的语义框架结果。实验表明,与基准ATIS和Snips数据集上的注意力模型相比,我们提出的模型显著提高了句子级语义框架的准确率,相对注意度模型分别提高了4.2%和1.9%。
插槽填充(Slot Filling)和意图检测(Inten Detection)近几年相关论文总结
笔记:Slot-Gated Modeling for Joint Slot Filling and Intent Prediction论文笔记

BERT for Joint Intent Classification and Slot Filling(2019)

意图分类和slot filling是自然语言理解的两个基本任务。它们经常遭受小规模的人工标签训练数据的困扰,导致泛化能力差,尤其是对于稀有单词。最近,一种新的语言表示模型BERT(来自Transformers的双向编码器表示)有助于在大型未标记的语料库上进行预训练深层的双向表征,并在处理完各种自然语言处理任务后创建了最新的模型简单的微调。但是,在探索BERT以获得自然语言理解方面并没有付出很多努力。在这项工作中,我们提出了一个基于BERT的联合意图分类和slot filling模型。实验结果表明,与基于注意力的递归神经网络模型和slot-gated模型相比,我们提出的模型在多个公共基准数据集上的意图分类准确性,slot filling F1和句子级语义准确性都有了显着提高。
插槽填充(Slot Filling)和意图检测(Inten Detection)近几年相关论文总结
笔记:BERT for Joint Intent Classification and Slot Filling论文笔记

A Novel Bi-directional Interrelated Model for Joint Intent Detection andSlot Filling(2019)

待更新