具有非可微激活函数的神经网络性能分析

被引:1
作者
穆文全,廖晓峰,虞厥邦
机构
[1] 成都电子科技大学光电子技术系
关键词
神经网络,激活函数,非可微激活函数,相对熵误差测度;
D O I
暂无
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
神经网络已广泛应用于各类问题,然而BP算法要求有连续且可微的激活函数,文中提出一种用于训练非可微激活函数的神经网络学习算法。同时,利用相对熵误差测度,算法被完整地导出。实验结果表明,在解决异或问题、编码/解码问题及其补问题时,算法收敛速度非常快,收敛结果也令人满意。
引用
收藏
页码:380+377 / 380
页数:5
相关论文
empty
未找到相关数据