一种通过反馈提高神经网络学习性能的新算法

被引:16
作者
武妍
王守觉
机构
[1] 同济大学计算机科学与工程系
[2] 同济大学半导体与信息技术研究所
关键词
神经网络; 学习算法; 泛化; 结果反馈;
D O I
暂无
中图分类号
TP183 [人工神经网络与计算];
学科分类号
摘要
为了有效提高前向神经网络的学习性能 ,需要从一个新的角度考虑神经网络的学习训练 基于此 ,提出了一种基于结果反馈的新算法———FBBP算法 将神经网络输入调整与通常的权值调整的反向传播算法结合起来 ,通过调整权值和输入矢量值的双重作用来最小化神经网络的误差函数 并通过几个函数逼近和模式分类问题的实例仿真 ,将FBBP算法与加动量项BP算法、最新的一种加快收敛的权值更新的算法进行了比较 ,来验证所提出的算法的有效性 实验结果表明 ,所提出的算法具有训练速度快和泛化能力高的双重优点 ,是一种非常有效的学习方法
引用
收藏
页码:1488 / 1492
页数:5
相关论文
共 11 条
  • [1] Performanceimprovementofback propagationalgorithmbyautomaticactivationfunctiongaintuningusingfuzzylogic. KEom,KJung,HSirisena. Neurocomputing . 2003
  • [2] Networkswithtrainableamplitudeofactivationfunc tions. ETrentin. Neural Networks . 2001
  • [3] Athree termbackpropagationalgorithm. YHZweiri,JFWhidborne,LDSeneviratne. Neurocomputing . 2003
  • [4] Efficientbackpropagationlearningusingopti mallearningrateandmomentum. XHYu,GAChen. Neural Networks . 1997
  • [5] Globallycon vergentalgorithmswithlocallearningrates. GDMagoulas,VPPlagiananakos,MNVrahatis. IEEETransonNeu ralNetworks . 2002
  • [6] Aweightinitializationmethodforim provingtrainingspeedinfeedforwardneuralnetwork. JYFYam,TWSChow. Neurocom puting . 2000
  • [7] Afeedforwardneuralnetworkwithfunc tionshapeautotuning. CTChen,WDChang. Neural Networks . 1996
  • [8] Invertingfeedforwardneuralnet worksusinglinearandnonlinearprogramming. BLLu,HKita,YNishikawa. IEEETransonNeuralNetworks . 1999
  • [9] Querybasedlearningappliedtopartiallytrainedmultilayerperceptrons. JNHwang,JJChoi,SOh,etal. IEEETransonNeuralNetworks . 1991
  • [10] Fuzzificationofinputvectorforimprovingthegeneralizationabilityofneuralnetworks. HIshibuchi,MNii. TheInt’’lJointConfonNeuralNetworks . 1998