极限学习机隐含层节点选择算法研究

被引:0
作者
徐志鑫
机构
[1] 浙江大学
关键词
极限学习机; 人工神经网络; 机器学习; 正则化; 剪枝法; 增量学习;
D O I
暂无
年度学位
2017
学位类型
硕士
导师
摘要
本文主要研究一种新的机器学习方法,即极限学习机(ELM)。作为一种针对单隐层前馈神经网络(SLFNs)的学习算法,ELM具有快速的学习速度和很好的泛化能力。隐含层节点在ELM算法中起着重要的作用,确定隐含层节点的方法有两种:一是剪枝法;二是增量学习方法。本文中我们介绍了两种剪枝方法,最优剪枝ELM(OP-ELM)和Tikhonov正则 OP-ELM(TROP-ELM)。我们的主要工作是ELM的增量学习方法,增量学习即首先初始化一个较小的网络,然后向网络中增加新的节点,直到生成一个我们满意的网络。当新的隐含层节点加入到已经存在的网络中时,重新训练网络往往比较费时,误差最小化极限学习机(EM-ELM)是一种增量的计算输出权值的快速方法。然而,由于过拟合等原因,EM-ELM不能总是得到好的泛化能力。在此,根据结构风险最小化准则,我们提出了一种基于正则化的EM-ELM改进方法,即增量正则化极限学习机(IR-ELM)。当我们逐一的向网络中增加新的隐含层节点时,IR-ELM可以快速的更新输出权值,同时保证网络具有很好的泛化能力,从而避免了上述提到的问题。同时,我们还提出了 IR-ELM的提升方法(EIR-ELM),它可以在一组候选隐含层节点中选出较好的一个加入到网络中,进一步提升了算法的泛化能力,同时生产更紧凑的网络。针对分类和回归问题,我们在基准数据集上与原始ELM算法,OP-ELM和TROP-ELM算法及EM-ELM和EEM-ELM算法进行了对比实验,验证了IR-ELM和EIR-ELM的有效性。
引用
收藏
页数:52
共 9 条
[1]
An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels [J].
Huang, Guang-Bin .
COGNITIVE COMPUTATION, 2014, 6 (03) :376-390
[2]
TROP-ELM: A double-regularized ELM using LARS and Tikhonov regularization [J].
Miche, Yoan ;
van Heeswijk, Mark ;
Bas, Patrick ;
Simula, Olli ;
Lendasse, Amaury .
NEUROCOMPUTING, 2011, 74 (16) :2413-2421
[3]
Regularized extreme learning machine for regression problems [J].
Martinez-Martinez, Jose M. ;
Escandell-Montero, Pablo ;
Soria-Olivas, Emilio ;
Martin-Guerrero, Jose D. ;
Magdalena-Benedito, Rafael ;
Gomez-Sanchis, Juan .
NEUROCOMPUTING, 2011, 74 (17) :3716-3721
[4]
A fast pruned-extreme learning machine for classification problem.[J].Hai-Jun Rong;Yew-Soon Ong;Ah-Hwee Tan;Zexuan Zhu.Neurocomputing.2008, 1
[5]
Sales forecasting using extreme learning machine with applications in fashion retailing [J].
Sun, Zhan-Li ;
Choi, Tsan-Ming ;
Au, Kin-Fan ;
Yu, Yong .
DECISION SUPPORT SYSTEMS, 2008, 46 (01) :411-419
[6]
Extreme learning machine: Theory and applications.[J].Guang-Bin Huang;Qin-Yu Zhu;Chee-Kheong Siew.Neurocomputing.2006, 1
[7]
Regularization and variable selection via the elastic net.[J].HuiZou;TrevorHastie.Journal of the Royal Statistical Society: Series B (Statistical Methodology).2005, 2
[8]
SUPPORT-VECTOR NETWORKS [J].
CORTES, C ;
VAPNIK, V .
MACHINE LEARNING, 1995, 20 (03) :273-297
[9]
REGULARIZATION THEORY AND NEURAL NETWORKS ARCHITECTURES [J].
GIROSI, F ;
JONES, M ;
POGGIO, T .
NEURAL COMPUTATION, 1995, 7 (02) :219-269