一种简洁高效的加速卷积神经网络的方法

被引:15
作者
刘进锋
机构
[1] 宁夏大学数学计算机学院
关键词
卷积神经网络; 卷积展开; 矩阵乘法; CUDA; BLAS;
D O I
暂无
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
卷积神经网络是机器学习领域一种广泛应用的方法,在深度学习中发挥着重要的作用。由于卷积神经网络一般需要多个层,而且训练数据通常都很大,所以网络训练可能需要几小时甚至很多天。目前虽然有一些利用GPU加速卷积神经网络训练的研究成果,但基本上都是实现方式复杂,需要技巧很高,而且容易出错。提出了一种简洁、高效的加速卷积神经网络训练的方法,其主要过程是将卷积层展开,这样卷积层和全连接层的主要训练步骤都可以用矩阵乘法表示;再利用BLAS库高效计算矩阵乘法。这种方法不需要过多考虑并行处理的细节和处理器的内核特点,在CPU和GPU上都能加速。实验证明,GPU上使用该方法比传统的CPU上的实现快了100多倍。
引用
收藏
页码:240 / 244
页数:5
相关论文
共 3 条
  • [1] CPU与GPU上几种矩阵乘法的比较与分析
    刘进锋
    郭雷
    [J]. 计算机工程与应用 , 2011, (19) : 9 - 11+23
  • [2] The Application of a Convolution Neural Network on Face and License Plate Detection .2 Ying-Nong Chen,Chin-Chuan Han,Cheng-Tzu Wang,et al. 18th International Conference on Pattern Recognition,ICPR . 2006
  • [3] Accelerating large-scale convolutional neural networks with parallel graphics multiprocessors .2 Scherer D,Schulz H,Behnke S. 20th International Conference on Artificial Neural Networks (ICANN) . 2010