循环神经网络结构中激活函数的改进

被引:8
作者
叶小舟
陶飞飞
戚荣志
张云飞
周思琪
刘璇
机构
[1] 河海大学计算机与信息学院
关键词
深度学习; 循环神经网络; 激活函数; LSTM模型; GRU模型;
D O I
暂无
中图分类号
TP183 [人工神经网络与计算];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
循环神经网络相比于其他深度学习网络,优势在于可以学习到长时依赖知识,但学习过程中的梯度消失和爆炸问题严重阻碍了知识的按序传播,导致长时依赖知识的学习结果出现偏差。为此,已有研究主要对经典循环神经网络的结构进行改进以解决此类问题。本文分析2种类型的激活函数对传统RNN和包含门机制RNN的影响,在传统RNN结构的基础上提出改进后的模型,同时对LSTM和GRU模型的门机制进行改进。以PTB经典文本数据集和LMRD情感分类数据集进行实验,结果表明改进后的模型优于传统模型,能够有效提升模型的学习能力。
引用
收藏
页码:29 / 33
页数:5
相关论文
共 4 条
[1]   深度学习研究综述 [J].
孙志军 ;
薛磊 ;
许阳明 ;
王正 .
计算机应用研究, 2012, 29 (08) :2806-2810
[2]  
Learning to Forget: Continual Prediction with LSTM[J] . Felix A. Gers,J&uuml,rgen Schmidhuber,Fred Cummins.Neural Computation . 2000 (10)
[3]   Long short-term memory [J].
Hochreiter, S ;
Schmidhuber, J .
NEURAL COMPUTATION, 1997, 9 (08) :1735-1780
[4]  
A Simple Way to Initialize Recurrent Networks of Rectified Linear Units .2 Le,Q. V,Jaitly,N,Hinton,G. E. . 2015