GSDCPeleeNet基于PeleeNet的高效轻量化卷积神经网络

人工智能
GSDCPeleeNet:基于PeleeNet的高效轻量化卷积神经网络
倪伟健,秦会斌
(杭州电子科技大学电子信息学院新型电子器件与应用研究所,浙江杭州310018)
摘要:卷积神经网络在各个领域都发挥着重要的作用,尤其是在计算机视觉领域,但过多的参数数量和计算量限制了它在移动设备上的应用。针对上述问题,结合分组卷积方法和参数共享、密集连接的思想,提出了一种新的卷积算法Group-Shard-Dense-Channle-Wise遥利用该卷积算法,在PeleeNet网络结构的基础上,改进出一种高效的轻量化卷积神经网络—
—GSDCPeleeNet遥与其他卷积神经网络相比,该网络在具有更少参数的情况下,几乎不损失识别精度甚至识别精度更高。该网络选取1X1卷积层中卷积核信道方向上的步长s作为超参数,调整并适当地选取该超参数,可以在网络参数量更小的情况下,拥有更好的图像分类效果。
关键词:图像分类;卷积神经网络;轻量化;密集连接;参数共享;分组卷积
中图分类号:TN911.73;TP399文献标识码:A DOI:10.16157/j.issn.0258-7998.200844
中文引用格式:倪伟健,秦会斌.GSDCPeleeNet:基于PeleeNet的高效轻量化卷积神经网络[J].电子技术应用,2021,47 (3):22-2630.
英文引用格式:Ni Weijian,Qin Huibin.GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet[J].Application of Electronic Technique,2021,47(3):22-26,30.网关设备
GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet
Ni Weijian,Qin Huibin
(Institute of New Electronic Devices and Applications,School of Electronic Information,Hangzhou Dianzi University,
Hangzhou310018,China)
Abstract:Convolutional neural network plays an important role in various fields,especially in the field of computer vision,but its application in mobile devices is limited by the excessive number of parameters and computation.In view of the above problems,a new convolution algorithm,Group-Shard-Dense-Channle-Wise,is proposed in combination with the idea of grouping convolution and parameter sharing and dense connection.Based on the PeleeNet network structure,an efficient light
weight convolutional neural network,GSDCPeleeNet,is improved by using the convolution algorithm.Compared with other convolutional neural networks,this network has almost no loss of recognition accuracy or even higher recognition accuracy under the condition of fewer parameters.In this network,the step size s in the channel direction of convolution kernel in the1X1convolutional layer i s selected as the super parameter.When the number of network parameters is smaller,better image classification effect can be achieved by adjusting and selecting the super parameter appropriately.
Key words:image classification;convolutional neural network;lightweight;dense connectivity;parameter sharing;grouping convolution
0引言
气体储罐随着深度学习理论的提出和硬件设备计算速度的不断突破,卷积神经网络在近年来得以迅速发展。2012年,AlexNet[1」在ImageNet大规模视觉识别挑战赛中获得了图像分类冠军。之后,为了提高网络模型的准确率,研究人员不断地加深卷积网络的深度,相继提出了性能更加优越的卷积神经网络,如VGG16[2]、GoogLeNet[3]和DenseNet[4」等。
这些网络准确率普遍较高,但是有着非常复杂的模型和很深的层次,参数量十分巨大。在实际生活的
应用中,模型往往需要在资源有限的嵌入式设备和移动设备上运行。因此,研究人员开始着手研究,并且相继提出了更高效的轻量级卷积神经网络。它们保持了网络的性能,大大减少了模型的参数量,从而减少计算量,提升了模型速度。
旷视科技的ShuffleNet在ResNet[5]单元上进行了改进,有两个创新的地方:逐点分组卷积和通道混洗[6]遥WANG R J等提出的PeleeNet是一种轻量级网络,它在DenseNet基础上进行了改进和创新,主要有五个方面的结构改进叫ZHANG J N等提出了一种卷积核及其压缩算法,通过这种卷积方法,ZHANG J N等发明了轻量卷积神经网络SDChannelNets[8]遥
人工智能
可以看出,上述轻量卷积神经网络均存在一定不足。在使用分组卷积时,为了解决分组卷积导致的信息丢失问题,需要增加额外的操作。在运用1伊1卷积时,会导致1伊1卷积的参数量在网络总参数量中占据大部分。通过分析,这些网络需要通过调整相应的超参数来提高网络识别精度。这些操作往往会大大增加网络模型参数量。
为了解决这个不足,本文结合参数共享、密集连接的卷积方法和分组卷积,基于PeleeNet网络,提出了轻量级卷积神经网络架构GSDCPeleeNet遥适当调节超参数,在损失较小准确度甚至拥有更高准确度的情况下,减小了模型的参数量。
1GSDCPeleeNet网络模型的设计
1.1SD-Channel-Wise卷积层
标准卷积层扫描一个宽度和高度均为D f、通道数为m的输入特征图的每个位置,输出一个宽度和高度均为D g、通道数为n的输出特征图。标准卷积层卷积核的参数在通道方向上是相互独立的袁所以标准的卷积层的
卷积核的大小为D w-D h-™,一共有n个,其中D w和D h (一般相等)是卷积核的宽度和高度。因此,标准卷积层的参数量数量为:
D w•D h•m•n(1)其中,D w和D h分别是卷积核的宽度和高度,m和n分别是输入和输出特征图的通道数。
从上述分析中,标准卷积层参数的大小取决于输入特征通道数m和输出特征通道数n的乘积m-n的大小。为了能够减少卷积层的参数,SD-channel-wise卷积层提出运用了参数共享、密集连接思想,它可以有效避免m-n的大小对卷积层参数的影响。
常规卷积层的卷积核数量为n个,而SD-channel-wise 卷积层的卷积核只有1个遥输入特征图每次只和这个卷积核的一小部分进行卷积运算袁这一小部分上的参数是
共享的,即权值相等。标准卷积层中的数个卷积核在卷积运算中是相互独立的。而该卷积核运用了密集连接的思想,在卷积过程中,有一部分的参数是重叠的,重叠的部分的参数的权值也是相同的。
为了更好地解释这个卷积层,先从一个高度和宽度均为1、通道数为m的输入特征图说明。这个通道数量为m的输入特征图会逐次和这个卷积核的第(1+x・s)~第(m+x-s)通道进行卷积运算,最终获得一个输出通道数为n的1伊1输出特征图。其中,x是小于n的自然数,s 是长卷积核通道方向上的步长。当输入宽度和高度不为1时,卷积层的卷积核会和输入特征图的各个空间位置进行卷积运算。SD-channel-wise卷积层参数量的数量为:
D w*D h*(m+(n-1)*s)(2)
经过这样参数共享和密集连接的卷积操作,SD-channel-wise卷积层的参数量不再取决于mxn的大小。因此袁该卷积层的参数相比于标准卷积层袁得以大幅度的下降。需要特别注意的一点是,当通道方向上的步长s等于或者大于输入特征图的通道数m时,该卷积层相当于标准的卷积层。
1.2GSD-Channel-Wise卷积层
在SD-Channel-Wise卷积的基础上,本文提出了分组SD-Channel-Wise卷积,命名为GSD-Channel-Wise。在这里将给定的输入特征图分成g组,每组都独立进行SD-Channel-Wise卷积操作。每个分组
将会得到n/g个输出特征图,通过将它们级联来获得整个卷积层的输出特征图。由于该卷积层的参数共享且连接非常密集,经过分组后提取到的特征会更多袁分组卷积的优势得以
进一步发挥。
在分组卷积的过程中袁相同分组中不同通道可能含有一样的信息袁这样就有可能会丢失部分信息袁导致输
出特征图得到的信息非常有限。ShuffleNet为了解决这个问题,增加了额外的操作——通道混洗,很好地解决了这个问题,但是也相应增加了网络的复杂度。
本文着手研究其他卷积神经网络,发现PeleeNet的两路密集层和转换层能够很好地解决这个问题,它们结构如图1所示。其中,k为增长率,两路密集层在Inception 结构基础上进行改进,由两路不同的网络分支组成,用来获取不同尺度感受野。第一路经过一层标准的1x1标准卷积缩减通道数量,再经过一层3x3卷积层学习特征;另一路则是在用1x1卷积减少通道数量后,经过两层3x3层卷积层来学习不同的特征。转换层作为过渡,保持输入输出通道一致。
|滤波器级联
3x3卷积,k/2
步长2
3x3卷积,k/2
1x1卷积,2k
上一层
(b)转换层
1X1卷积,
步长1
3x3卷积,k/2
%
1x1卷积,2k
—T
(a)两路密集层
图1PeleeNet中两路密集层和转换层
通过分析PeleeNet网络结构,发现两路密集层和转换层占据了网络的主要部分,且1x1卷积的输入通道或者输出通道数目比较大,3x3卷积的输入通道或者输出通道数目比较小,导致1x1卷积的参数量占据了PeleeNet 网络的参数量的60%以上。本文分析提出,将上述两层结构的1x1卷积替换成1x1GSD-Channel-Wise,3x3卷积使用标准卷积。经过这样的操作,不同分组间的信息可以重新流通。同时因为运用了新的卷方法,新网络的参数数量在PeleeNet的基础上大幅度减少。改进后的两路密集层和转换层如图2所示。
人工智能
(a)改进的两路密集层
图2 GSDCPeleeNet 中改进的两路密集层和转换层
1 x  1GSDC 卷积,
步长1
(b)改进的转换层
不同于常规的分组卷积,1 X  1GSD -Channel -Wise 卷 积层中由于只有一个卷积核,参数并没有大幅度地减 少遥分成g 组的1 X  lGSD-Channel-Wise 卷积层参数量大 小为:
1-1-(斜(8-l)・s )・g=l ・l ・(m  + (n-g )・s)
(3)
通过将标准1X1卷积层替换成参数共享的1X
lGSD-Channel-Wise 卷积层,将参数缩减为原来的:
I - 1・(m  + (n -g )・s) =1
•丄 一 g -
(4)
1 • 1 • m  • n  n  m  m  - n
1X  lGSD-Channel-Wise 卷积层的具体计算如图3所
示遥可以分析出,通过调整超参数卷积核通道方向上的
步长s  ,模型的参数大小会相应改变。而参数量的改变 在一定程度上会影响准确率改变。当选取较小的s 和适当
的g 时,1 X  1GSD -Channel-Wise 相比于标准的1x 1标准 卷积层,参数量可以减少为原来的数十分之一。
图3 1X  1GSD- Channel  — Wise 卷积层卷积计算图示
1.3 GSDCPeleeNet
本文遵循了 PeleeNet 的基本架构,并对上述方法进 行改进,将两路密集层和转换层1X1标准卷积层替换成
1X  lGSD-Channel-Wise  ,提出了 GSDCPeleeNet 遥每一层输
出维度和PeleeNe 保持一致。GSDCPeleeNet 的结构如表1 所示。
谱纯
ShuffleNet  v2[9]中提出的高效网络设计实用准则中
表1 GSDCPeleeNet 网络结构
输人维度
224X224X3
步骤层
输出维度
步骤0
茎块
/
56X56X32
步骤1GSDC 密集块GSDC  转换层GSDC 密集层X 3
1X 1 GSDC 卷积,步长1
2X 2平均池化,步长2
28X28X128
步骤 2
GSDC  密集块
GSDC  转换层GSDC 密集层X 4
1X 1 GSDC 卷积,步长1
2X2 平均池化 步长 2
14X14X256
步骤 3GSDC  密集块
GSDC  转换层GSDC 密集层X 8
1X 1 GSDC 卷积,步长1
2X2 平均池化 步长 2
7X7X512
步骤 4
GSDC  密集块GSDC  转换层
GSDC 密集层X 61X 1 GSDC 卷积,步长1
7 X  7 X  704
分类层7X 7全局平均池化1X 1X 7041 X1 X704
指出,较大的分组卷积会提升内存访问成本,导致模型 的速度反而降低。综合考虑精度和速度等因素的影响,
将1x 1 GSD  - Channel  - Wise 卷积中设置分组数量为2。在
该卷积层中,选择长卷积核通道方向上的步长s 作为超
参数,该超参数可以根据所需的精度和参数数量进
行相应的调整。本文设计了 GSDCPeleeNe-sl 、GSDC-
PeleeNe-s32、GSDCPeleeNe-s64、GSDCPeleeNe-s192 4 种
同类相食
模型,其在通道方向上的步长分别为1、32、64和192遥
它们的参数总数在1.11 M-1.808 M 之间,占PeleeNet  (2.8 M)的 39.6%~64.5%。
网路模型的复杂度常用浮点运算数衡量,可以理解
为计算量(FLoating-point  OPerations  , FLOPS)。对于卷积层
来说,计算量公式为:
FLOPs  = (2-m-K 2-1)-H-W-n  (5)其中,m 是输入特征图通道数,K 是卷积核大小,H 、W
是输出特征图大小,n 是输出通道数通道数。不考虑偏 置bias 时有-1 ,考虑时没有。对于全连接层,计算量公 式为:
FLOPs  = (2・I-1)・O
(6)
其中,I 是输入神经元数,O 是输出神经元数。经过计 算,GSDCPeleeNet  的计算量为 178.6 MFLOPs  ,为 PeleeNet
(508 MFLOPs )的 35.1%遥
2实验研究
2.1数据集和实验设置
实验主要在数据集CIFAR-10和Fashion-MNIST 进 行遥CIFAR-10数据集中的图像均为彩,像素大小为 32X 32遥它的训练集包含一共5万张不同的图像,测试集 包含一共1万张不同的图像,共分为10个不同的类别。
Fashion-MNIST 数据集均是灰度图像,像素大小为28x 28遥
它的训练集一共包含6万张图像,测试集包含1万张图
像,与CIFAR-10 一样,被划分成为10个不同的类别。
每张图片均进行一定的预处理。在CIFAR-10数据
人工智能
集,本文使用通道均值和标准差对它们进行归一化处理;在Fashion-MNIST上,每张图像中的每个像素点均除以255进行归一化处理。同时数据集里的每张图片进行了数据增强,主要包括水平随机翻转和平移。
所有网络的训练方式均是随机梯度下降法何,动量设置为0.9[11,权值衰减为5x10-4遥训练批量大小设置成64,CIFAR-10趟数设置成100,Fashion-MNIST趟数设置成60;初始的学习率设置成0.1,在
趟数25和50上分别除以10。每一层后均增加批归一化BN(Batch Normal-ization)[12」层遥因为只是在各个网络上进行对比,每一层都没有设置Dropout[13」层遥实验训练所有数据集中的图片,并且在训练结束后记录测试集的准确率。
2.2实验结果与分析
本文在CIFAR-10和Fashion-MNIST数据集上使用相同的分组数2和不同的长卷积核通道方向上的步长s 训练GSDCPeleeNet,再用同样条件训练其他不同的卷积神经网络。在训练结束后,记录下两个数据集的识别正确率,结果如表2、表3所示。由于两个数据集的的像素大小分别为32x32x3和28x28x1,因此GSDCPeleeNet和PeleeNet都没有使用茎块,增长率(growth rate)设置为32;DenseNet中的密集层为3层,转换层为2层。
表2各模型在CIFAR-10上的识别准确度网络模型参数数量(xl06)识别正确率/% Network in NetWork[l4]0.97289.60
Resnet110  1.74290.52 DenseNetl00(k=12)0.79390.06 MobileNetV2[15]  2.28991.17 ShuffleNetV2(1.0x)  1.27590.28
PeleeNet  2.10390.76 GSDCPeleeNet-s10.40488.58
GSDCPeleeNet-s320.51890.91
GSDCPeleeNet-s640.63491.38
GSDCPeleeNet-s192  1.11090.81
表3各模型在Fashion-MNIST上的识别准确度网络模型参数数量(x106)识别正确率/% Network in NetWork0.97294.02
Resnet110  1.74294.50 DenseNet100(k=12)0.79394.52 MobileNetV2
2.28994.61
ShuffleNetV2(1.0x)  1.27594.18
PeleeNet  2.10394.35 GSDCPeleeNet-s10.40494.01
GSDCPeleeNet-s320.51894.46
GSDCPeleeNet-s640.63494.61
GSDCPeleeNet-s192  1.11094.39
从表2可以看出,在CIFAR-10数据集中,GSDCPelee­Net中长卷积核信道方向上的步长s取1时,该网络结构的参数大幅度减少,只有0.404M,在Peleenet的基础上,大约减少了80%,准确率只大约降低了2%遥当步长s逐渐增加时网络结构的参量数量逐渐增大而识别准确度有一个先上升后下降的过程。这与SDChannelNets 中步长s和识别准确度呈正相关不同。这是因为,输入特征图经过分组卷积后,过大的步长s会使得更多的1x1GSD-Channel-Wise转换成标准1x1卷积,导致参数共享和密集连接与分组卷积结合的效果减弱。因此,选取合适的步长s,可以在网络模型参数增加不大的情况下有一个很好的精准度。当步长s选取64时,网络的识别准确率最高,为91.38%,优于PeleeNet的90.76%和其他模型。
图4是各个GSDCPeleeNet模型在CIFAR-10上数据集上的测试准确率曲线对比。
图4GSDCPeleeNet各模型在CIFAR-10的准确率曲线
从表3可以看出,该模型在不同的数据集中也表现出了较强的识别能力。尤其是在Fashion-MNIST这样的简单数据集中,GSDCPeleeNet-s1也表现出了不错的识别能力,准确率达到94.01%遥GSDCPeleeNet-s64的识别准确率仍然最高,达到了94.61%,优于PeleeNet的94.35%和其他模型遥图5是GSDCPeleeNet各模型在Fashion-MNIST的准确率曲线遥
3结束语
本文结合SD-Channel-Wise卷积算法和分组卷积的方法,提出改进的GSD-Channel-Wise卷积方法;并结合PeleeNet网络的结构,用该卷积方法代替网络中标准的1x1卷积,改进出了一种新型网络——GSDCPeleeNet遥通过调整长卷积核通道方向上的超参数步长s,可以改变网络模型的参数量和准确度。通过一定的实验,发现网络的识别准确度和步长s之间没有成正比。这表明,选择合适的步长s可以在一个较少的模型参数量上取得更高的准确率。实验结果也表明,与其他卷积神经网络相比该卷积神经网络参数更少而且识
人工智能
图5GSDCPeleeNet各模型在Fashion-MNIST的准确率曲线
别效果差距不大甚至更佳。但由于PeleeNet网络结构的限制,GSDCPeleeNet的网络参数和计算量还是较大。在接下去的工作中,希望通过结合其他轻量卷积神经网络结构和压缩方法,继续改进该网络遥在进一步的工作中,还将会研究该网络在其他计算机视觉领域的应用,如目标检测和图像识别等。参考文献
[1]KRIZHEVSKY A,SUTSKEVER I,HINTON G    E.ImageNet
classification with deep convolutional neural networks[C].
International Conference on Neural Information Processing
Systems.Curran Associates Inc.,2012:1097-1105.
[2]RUSSAKOVSKY O,DENG J,SU H,et al.ImageNet large
scale visual recognition challenge[J]Nnternational Journal of Computer Vision,2015,115(3):211-252.
[3]SZEGEDY C,LIU W,JIA Y,et al.Going deeperwith
convoutions[C].CVPR2015.7298594,2015.
[4]HUANG G,LIU Z,LAURENS V D M,et al.Densely con­
nected convolutional networks[C].CVPR2017,2017:4700-4708.
[5]HE K,ZHANG X,REN S,et al.Deep residual learning for
image recognition[C].Las Vegas:Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition,
2016:770-778.
[6]ZHANG X,ZHOU X,LIN M,et al.Shufflent:an extremely
efficient convolutional neural network for mobile devices[C].
Proceedings of the IEEE Conference on Computer Vision
and Pattern Recognition,2018.
(下转第30页)
(上接第21页)
hipihi
approach for post-processing in HEVC intra coding[C].
International Conference on Multimedia Modeling,2017. [5]HE K,ZHANG X,REN S,et al.Deep residual learning for
image recognition[C].2016IEEE Conference on Computer
Vision and Pattern Recognition(CVPR),2016.
[6]AIMAR A,MOSTAFA H,CALABRESE E,et al.NullHop:
a flexible convolutional neural network accelerator based on
sparse representations of feature maps[J].IEEE Transactions on Neural Networks,2019,30(3):644-656.
[7]RAJASEGARAN J,JAYASUNDARA V,JAYASEKARA S,et al.
DeepCaps:going deeper with capsule networks[C].Proceedings of the2019IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE,2019:10725-10733.
[8]SZEGEDY C,LIU W,JIA Y,et al.Going deeper with
convolutions[C].2015IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015.
[9]HORI T,WATANABE S,ZHANG Y,et al.Advances in
joint CTC-attention based end-to-end speech recognition with a deep CNN encoder and RNN-LM[C].Interspeech
20172017.
[10]Yang Yichen,Zhang Guohe,Liang Feng,et al.Design of
FPGA based convolutional neural network co-processor[J].
Journal of Xi忆an Jiaotong University,2018,52(7):158-
164.[11]崔小乐,陈红英,崔小欣,等.一种软硬件协同设计工具
原型及其设计描述方法[J].微电子学与计算机,2007,
24(6):28-30.
[12]吴艳霞,梁楷,刘颖,等.深度学习FPGA加速器的进展
与趋势[J].计算机学报,2019(11):2461-2480.
[13]卢冶,陈瑶,李涛,等.面向边缘计算的嵌入式FPGA卷
积神经网络构建方法[J].计算机研究与发展,2018,55
佳能c6000
(3):551-562.
[14]魏浚峰,王东,山丹.基于FPGA的卷积神经网络加速器
设计与实现[J].中国集成电路,2019,28(7):18-22. [15]施一飞.对使用TensorRT加速AI深度学习推断效率的
探索[J].科技视界,2017(31):26-27.
[16]杨一晨,张国和,梁峰,等.一种基于可编程逻辑器件的
卷积神经网络协处理器设计[J].西安交通大学学报,
201852(7):158-164.
[17]张哲,孙瑾,杨刘涛.融合多层卷积特征的双视点手势
识别技术研究[J].小型微型计算机系统,2019,40(3):
646-650.
[18]余子健,马德,严晓浪,等.基于FPGA的卷积神经网络
加速器[J].计算机工程,2017,43(1):109-114.
_____________________________(收稿日期:2020-08-13)
作者简介:
程佳风(1995-),男,硕士研究生,主要研究方向:人工智能、硬件加速。
王红亮(1978-),男,博士研究生,教授,主要研究方向:测试系统集成、目标检测与识别。

本文发布于:2024-09-22 07:39:13,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/293363.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:卷积   参数   网络   通道
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议