一种新的快速收敛的反向传播算法

被引:8
作者
武妍
王守觉
机构
[1] 同济大学计算机科学与工程系
[2] 同济大学半导体与信息技术研究所 上海
[3] 同济大学半导体与信息技术研究所
[4] 上海
[5] 中国科学院半导体研究所神经网络实验室
[6] 北京
关键词
神经网络; 反向传播; 学习算法;
D O I
暂无
中图分类号
TP183 [人工神经网络与计算];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
提出了一种新的快速的误差反向传播算法 .这种方法从神经网络的权值调节公式入手 ,通过避免过早饱和、加大权值调节的幅度等手段来加快收敛 .并通过对两个奇偶问题、一个函数逼近问题的仿真 ,验证了所提出的算法的有效性 .结果表明 ,所提出的算法在收敛速度等方面大大优于通常的BP(反向传播 )算法、带动量项的BP算法以及其他的一些改进的算法 .
引用
收藏
页码:1092 / 1095
页数:4
相关论文
共 8 条
[1]  
Chen C T,Chang W D.A feedforward neural network with function shape autotuning. Neural Networks . 1996
[2]  
NEURAL NETWORKS[P]. PERSAUD KRISHNA CHANDRA.EP0811198A1,1997-12-10
[3]  
Neural networks[P]. DENKER JOHN S[US];HOWARD RICHARD E[US];JACKEL LAWRENCE D[US].中国专利:US4760437A,1988-07-26
[4]  
Magoulas G D,Plagiananakos V P,Vrahatis M N.Globally convergent algorithms with local learning rates. IEEE ACM Transactions on Networking . 2002
[5]  
Eom K,Jung K,Sirisena H.Performance improvement of backpropagation algorithm by automatic activation function gain tuning using fuzzy logic. Neurocomputing . 2003
[6]  
Trentin E.Networks with trainable amplitude of activation functions. Neural Networks . 2001
[7]  
Yam J Y F,Chow T W S.A weight initialization method for improving training speed in feedforward neural network. Neurocomputing . 2000
[8]  
Zweiri Y H,Whidborne J F,Seneviratne L D.A three-term backpropagation algorithm. Neurocomputing . 2003