《Hierarchical Attention Network for Document Classification》—— 用于文本分类的层次注意力网络
目录
《Hierarchical Attention Network for Document Classification》—— 用于文本分类的层次注意力网络
- 作者:Zichao Yang,Diyi Yang,Chris Dyer,Xiaodong He;
- 单位:卡耐基梅隆大学,微软研究院;
- 论文来源:ACL 2016;
1、文本分类
1.1 文本挖掘
文本挖掘是一个以半结构或者无结构的自然语言文本为对象的数据挖掘,是从大规模文本数据集中发现隐藏的、重要的、新颖的、潜在的、有用的规律的过程;
文本分类是文本挖掘的一个常见任务
1.2 数据类型
非结构化数据:
没有固定结构的数据,直接整体进行存储,一般存储为二进制的数据格式;
半结构化数据:
结构化数据的一种形式,它并不符合关系型数据库等形式关联起来的数据模型结构,但包含相关标记,用来分割语义元素以及对记录和字段进行分层;
结构化数据:
能够使用数据或者统一的结构加以表示,如数字、符号。
1.3 文本分类
文本分类是自然语言处理的基本任务。目的是将非结构化文档(例如,评论,电子邮件,帖子,网站内容等)分配给一个或者多个类。
文本分类流程:
- 文本数据获取;
- 文本预处理;
- 文本的向量表示;
- 构造分类器;
- 模型评估;
2、层次注意力网络
网络组成结构:
- word encoder:单词序列编码器
- word attention:单词注意力机制
- sentence encoder:句子编码器
- sentence attention:句子注意力机制
2.1 基于GRU的词序列编码器:
- RNN的一个变种,使用门机制来记录序列当前的状态;
- 隐藏层状态的计算公式:
- 更新门:
- 候选状态:
- 重置门:
2.2 单词序列编码器
我们假设文档有L个句子,每个句子包含T个单词,单词表示第i个句子中的第t个单词,对于单词,使用embedding词嵌入矩阵获取单词对应的词向量:
获得句子中每个单词对应的词向量后,使用双向GRU或者双向LSTM将正向和反向的信息结合起来获得隐藏层的输出:
其中:
以上为单词序列编码器的基本原理过程。
2.3 单词注意力机制
并非所有的单词都对句子的含义表示有同等的作用,因此引入了注意力机制来提取对句子含义更重要的词,并且汇总词信息来形成句子向量。
我们从单词序列编码器获得了句子中每个单词的隐层输出,隐层输出是构建单词注意力机制的基础,在论文中使用的注意力模型为加性模型:
公式中的W,U和v都是可学习的参数。
在论文中通过随机初始化和偏置进行训练获得的隐藏信息,即:
得到新的词表示之后,为了衡量每个单词的重要性,我们随机初始化一个上下文向量,进而计算句子中每个单词的重要性:
得到每个单词的重要性之后,我们可以通过加权平均得到句子的向量表示:
以上为单词注意力机制的基本原理。
2.4 句子编码器
在得到句子的向量表示之后,用类似的方法得到文档向量。我们使用双向GRU获得前向和后向的句子向量表示:
公式中的前向GRU和后向GRU计算公式计算如下:
2.5 句子注意力机制
为了获得文档的向量表示,我们同样使用加性注意力机制,基于句子级别的上下文信息,我们可以得到文档的向量表示:
2.6 文档分类
文档向量是文档的高级表示,可用做文档分类的功能,在文档向量上接一个softmax层:
其对应的损失函数为:
3、实验和结果
3.1 数据集
- 论文中使用了六个数据集:Yelp review 2013,2014,2015;IMDB review;Yahoo Answers;Amazon reviews;
- 每个数据集合中80%的数据用作训练集合,10%的数据用作验证集合,剩余10%的集合用作测试集合;
3.2 实验任务
在六个数据集上的文本进行分类实验;
3.3 对比模型
- 线性模型
- SVM
- word-based CN
- Character-based CNN
- Conv/LSTM-GRNN
3.4 模型参数
- 批量大小:64
- 动量值:0.9
3.5 论文实验结果
3.6 可视化分析
为了进一步说明注意力机制的作用,作者对attention注意力机制下的单词和句子权重进行可视化,上图中的蓝色越深表示单词在句子中的权重越大,粉色越来越深说明句子在文本中的权重越大。
4、总结
4.1 论文主要创新点
- 提出了一种用于文本分类的层次注意力网络;
- 该网络受限构建句子的表示,然后将它们聚合成文档表示;
- 该网络在单词和句子级别应用了两个级别的注意力机制;
5、推荐阅读论文
- Tianyang Zhang et al.2018. Learning Structured Representation for Text Classification via Reinforcement Learning.
- Joulin et al.2017.Bag of Tricks for Efficient Text Classification.
- Johnson et al.2017. Deep Pyramid Convolutional Neural Networks for Text Categorization.
- JacobDevlin et al.2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.