深度神经网络解释方法综述

被引:32
作者
苏炯铭
刘鸿福
项凤涛
吴建宅
袁兴生
机构
[1] 国防科技大学智能科学学院
基金
湖南省自然科学基金;
关键词
可解释的人工智能; 深度神经网络; 卷积神经网络; 循环神经网络; 生成对抗网络;
D O I
10.19678/j.issn.1000-3428.0057951
中图分类号
TP183 [人工神经网络与计算];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
深度神经网络具有非线性非凸、多层隐藏结构、特征矢量化、海量模型参数等特点,但弱解释性是限制其理论发展和实际应用的巨大障碍,因此,深度神经网络解释方法成为当前人工智能领域研究的前沿热点。针对军事、金融、医药、交通等高风险决策领域对深度神经网络可解释性提出的强烈要求,对卷积神经网络、循环神经网络、生成对抗网络等典型网络的解释方法进行分析梳理,总结并比较现有的解释方法,同时结合目前深度神经网络的发展趋势,对其解释方法的未来研究方向进行展望。
引用
收藏
页码:1 / 15
页数:15
相关论文
共 13 条
[1]   重新找回人工智能的可解释性 [J].
何华灿 .
智能系统学报, 2019, 14 (03) :393-412
[2]   可解释化、结构化、多模态化的深度神经网络 [J].
熊红凯 ;
高星 ;
李劭辉 ;
徐宇辉 ;
王涌壮 ;
余豪阳 ;
刘昕 ;
张云飞 .
模式识别与人工智能, 2018, 31 (01) :1-11
[3]   Visual interpretability for deep learning:a survey [J].
Quan-shi ZHANG ;
Song-chun ZHU .
Frontiers of Information Technology & Electronic Engineering, 2018, 19 (01) :27-39
[4]   深层神经网络中间层可见化建模 [J].
高莹莹 ;
朱维彬 .
自动化学报, 2015, 41 (09) :1627-1637
[5]  
A Survey of Methods for Explaining Black Box Models[J] . Riccardo Guidotti,Anna Monreale,Salvatore Ruggieri,Franco Turini,Fosca Giannotti,Dino Pedreschi.ACM Computing Surveys (CSUR) . 2018 (5)
[6]  
Methods for interpreting and understanding deep neural networks[J] . Grégoire Montavon,Wojciech Samek,Klaus-Robert Müller.Digital Signal Processing . 2018
[7]   Representation of Linguistic Form and Function in Recurrent Neural Networks [J].
Kadar, Akos ;
Chrupala, Grzegorz ;
Alishahi, Afra .
COMPUTATIONAL LINGUISTICS, 2017, 43 (04) :761-780
[8]   Long short-term memory [J].
Hochreiter, S ;
Schmidhuber, J .
NEURAL COMPUTATION, 1997, 9 (08) :1735-1780
[9]  
Interpretation of neural networks is fragile .2 GHORBANI A,ABID A,ZOU J. Proceedings of AAAI Conference on Artificial Intelligence . 2018
[10]  
Textual explanations for self-driving vehicles .2 KIM J,ROHRBACH A,DARRELL T,et al. Proceedings of European Conference on Computer Vision . 2018