基于GRU-Attention的中文文本分类

被引:10
作者
孙明敏
机构
[1] 扬州大学
关键词
自然语言处理; 文本分类; GRU; 注意力机制;
D O I
暂无
中图分类号
TP391.1 [文字信息处理];
学科分类号
081203 ; 0835 ;
摘要
传统的GRU分类模型是一种基于LSTM的模型变体,它在LSTM的基础上将遗忘门和输入门合并成更新门,使得最终的模型比标准的LSTM模型更简单。可是LSTM和GRU均没有体现每个隐层输出的重要程度。为了得到每个输出的重要程度,本文在GRU的基础上加入了注意力(Attention)机制,设计了GRU-Attention分类模型,并通过对比实验的方式说明了增加了Attention的GRU模型在分类效果上有了一定程度的提升。
引用
收藏
页码:10 / 12
页数:3
相关论文
共 4 条
[1]   人工智能的关键性技术 [J].
彭健 .
互联网经济, 2018, (12) :46-51
[2]   文本分类及分类算法研究综述 [J].
张磊 .
电脑知识与技术, 2016, 12 (34) :225-226+232
[3]   迎接大数据时代 [J].
相海泉 .
中国信息界(e医疗), 2013, (05) :38-42
[4]   自然语言处理技术的三个里程碑 [J].
黄昌宁 ;
张小凤 .
外语教学与研究, 2002, (03) :180-187+239