基于短语注意机制的文本分类

被引:36
作者
江伟 [1 ,2 ]
金忠 [1 ,2 ]
机构
[1] 南京理工大学计算机科学与工程学院
[2] 南京理工大学高维信息智能感知与系统教育部重点实验室
关键词
文本分类; 循环神经网络; 卷积层; 注意机制;
D O I
暂无
中图分类号
TP183 [人工神经网络与计算]; TP391.1 [文字信息处理];
学科分类号
120506 [数字人文]; 140502 [人工智能];
摘要
基于词注意机制的双向循环神经网络在解决文本分类问题时,存在如下问题:直接对词加权生成文本表示会损失大量信息,从而难以在小规模数据集上训练网络。此外,词必须结合上下文构成短语才具有明确语义,且文本语义常常是由其中几个关键短语决定,所以通过学习短语的权重来合成的文本语义表示要比通过学习词的权重来合成的更准确。为此,该文提出一种基于短语注意机制的神经网络框架NN-PA。其架构是在词嵌入层后加入卷积层提取N-gram短语的表示,再用带注意机制的双向循环神经网络学习文本表示。该文还尝试了五种注意机制。实验表明:基于不同注意机制的NN-PA系列模型不仅在大、小规模数据集上都能明显提高分类正确率,而且收敛更快。其中,模型NN-PA1和NN-PA2明显优于主流的深度学习模型,且NN-PA2在斯坦福情感树库数据集的五分类任务上达到目前最高的正确率53.35%。
引用
收藏
页码:102 / 109+119 +119
页数:9
相关论文
共 2 条
[1]
Deep learning for sentiment analysis: successful approaches and future challenges [J].
Tang, Duyu ;
Qin, Bing ;
Liu, Ting .
WILEY INTERDISCIPLINARY REVIEWS-DATA MINING AND KNOWLEDGE DISCOVERY, 2015, 5 (06) :292-303
[2]
Long short-term memory [J].
Hochreiter, S ;
Schmidhuber, J .
NEURAL COMPUTATION, 1997, 9 (08) :1735-1780