一种基于“中国视云”平台的CNN核函数可视化方法

ISSN1006-7167
CN31-1707/T
RESEARCHANDEXPLORATIONINLABORATORY
第40卷第5期 Vol.40No.5
2021年5月May2021 
DOI:
10.19927/j.cnki.syyt.2021.05.014
一种基于“中国视云”平台的CNN核函数可视化方法
李成范1
, 胡子荣1
, 刘 岚2
, 丁雪海1
, 童维勤
(1.上海大学计算机工
程与科学学院,上海200444;2.上海工程技术大学电子电气工程学院,上海201620)
摘 要:以“中国视云”科研平台为依托,针对神经网络模型可视化展示,提出一种卷积神经网络(CNN)核函数可视化方法。该方法中,通过使用最大激活函数对神经网络核函数进行可视化计算并形成功能模块。实验结果表明:该方法能够清晰展示CNN核函数和资源占用变化,具有方便操作、泛用性高等特点。该方法可对CNN模型的解释和模型结构与参数改进提供参考和借鉴。关键词:中国视云;卷积神经网络;模块化;可视化;核函数
中图分类号:TP316.8   文献标志码:A   文章编号:
1006-7167(2021)05-0057-05ANewMethodofKernelFunctionVisualizationwith
CNNBasedontheChinaVisionCloud
LIChengfan1, HUZirong1,
 LIULan2, DINGXuehai1,
 TONGWeiqin1
(1.SchoolofComputerEngineeringandScience,Sha
nghaiUniversity,Shanghai200444,China;2.SchoolofElectronicandElectricalEngineering,ShanghaiUniversityofEngineeringScience,
Shanghai201620,China)
Abstract:BasedontheChinaVisualCloudplatformofShanghaiUniversity,thispaperproposesanewmethodofkernelfunctionvisualizationwithCNNforthevisualizationdemonstrationofneuralnetworkmodels.Inthismethod,thekernel
functionofCNNisvisualizedbythemaximumactivationfunctionandthenformedthefunctionalmodules.TheexperimentalresultsshowthattheproposedmethodcanclearlydemonstratethechangesofkernelfunctionandresourceoccupancyintheCNNmodel,
andhasthecharacteristicsofconvenientoperatio
nandhighgeneralization.ItcanprovidereferencefortheinterpretationoftheCNNmodelandtheimprovementofthemodelstructureandparameters.Keywords:ChinavisionCloud;convolutionalneuralnetwork(CNN
);modularization;visualization;kernelfunction
收稿日期:2020 07 30
基金项目:上海市科委项目(19142201600,19dz2252600
)作者简介:李成范(1981-
),男,河南南阳人,博士,高级实验师,主要从事智能信息处理、实验技术信息化及科普推广研究。
Tel.:021 66135257;E mail:
lchf@shu.edu.cn
aod通信作者:刘 
岚(1982
),女,山东济宁人,博士,实验师,主要从事智能信息处理和实验技术信息化研究。Tel.:021 66745366;E mail:liulan@sues.edu.cn
0 
 言近年来,人工智能领域发展迅速,尤其在深度学习这一重要领域尤为明显。图形处理器(GraphicsProcessingUnit,GPU)
计算和并行计算的发展,推动着神经网络领域的研究快速步入了一个飞速发展的
阶段。神经网络在人工智能领域发展中起着重要作用,但依旧是可解释性有限的黑盒函数近似器,尤其现在涌现的好多模型都是封装过的,以至于难以理解内部的具体结构。比如卷积神经网络(ConvolutionalNeuralNetwork,CNN)[1
]和循环神经网络(RecurrentNeuralNetwork,RNN)等深度学习模型,尽管在许多方面表现突出,但网络结构复杂,模型参数较多,以至从数学角度解释最终的输出与模型参数之间的关联面临着很大的困难
[2 4
]。对模型层次间参数关联和输出之间的影响也并不清楚。随着我国综合国力的持续增长和政府对科研投入
中国男体
 第
40卷 力度的不断加大,当前大型科研仪器保有量呈现井喷
式增长趋势[5 7
]。这为科技创新与发展提供了坚实的硬件基础。高校作为社会的一个重要组成部分,大型仪器的保
有量和使用现状在一定程度上体现了其科技创新和服务社会的水平。高校大型科学仪器不仅设备数量众多,而且类型复杂多样,使用状况也不尽相同[8
]。“中国视云”科研平台于2018年搭建而成。本文依托“中国视云”这一大型科学仪器平台,针对深度学习可视化中存在的问题和现有开发工具的不足,通
过对CNN可视化进行研究[9 13
],实现对神经网络结
构、核函数、资源调度、学习特征可视化;通过可视化方法解释神经网络,还原和展示神经网络的训练过程[14 15
]。国内外对可视化方面的研究也颇多,2009年Erhan等提出了对传统的浅层网络进行解释的激活函数最大化算法[16
],后期衍生出的许多特征可视化方法都是基于这种方法;Mahendran等提出了网络反演算法重建基于多个神经元激活的输入图像,以此来实现每个卷积层中学习到的综合特征图可视化,揭示了
CNN在隐藏层层面的内部特征[17
];Zeiler等
[18
]提出了基于反CNN的可视化方法,通过直接映射解释CNN中突出显示激活的特定神经元,从而直接链接神经元
和输入数据;周博磊等在2018年提出了基于网络剖分
的可视化[19
],通过引用异构图像数据集有效地将输入图像分割为多个具有各种语义定义的部分,显著提高了神经元的可解释性。深度学习可视化发展主要体现在对深度学习可视化内容的研究不断深入和可视化的工具越来越多[20 21],功能也越来越强大。深度学习可视化逐渐向涉及整个模型训练过程和特征量化的方向发展。这些工具目前仍局限于网络结构、特征图、训练参数等可视化[22 23
]。随着深度学习可视化研究的深入,可视化工
具势必会越来越多、功能也愈加丰富
[24
]。本文提出的一种基于“中国视云”平台的CNN可视化方法,通过利用最大激活函数方法和模块化封装技术有效解决了可视化工具兼容性低、可视化种类单一、网络层次和训练过程细节模糊问题,具有较好的应用前景。
1 
可视化工具模块设计
本可视化库封装采用Python文件,用户可以通过
import工具直接引入。该可视化库的功能主要分为以下两个方面:(1)创建数据存放目录。该功能通过将一次运行中的数据都存放至同一个目录,方便后端对数据文件的读取;
(2)可视化功能模块。该
模块文件中封装了多个可视化功能,用户可以通过引入该模块来调用相应
方法。1.1 网络结构网络结构可视化技术主要采用jCanvas.js图形库。jCanvas.js图形库是一个基于jQuery框
架和canvas标签的纯JavaScript库,它提供多种基础图形和文本功能,并且通过jQuery封装一系列交互功能,例如点击、鼠标悬停等。特征图可视化、核函数可视化都是基于网络结构可视化来实现的,通过选定网络某一层将相应层次的
特征图、核函数内容可视化出来,本文采用的是
Resnet残差神经网络进行实验,网络结构如图1所示。由图1可见,Resnet是由6层网络构成的,分别为1个卷积层、4个残差层和1个
池化层全连接层
。图
1 Resnet50
网络结构图
1.2 
核函数
在神经网络中,核函数可视化是通过
ActivationMaximization(AM)算法实现的。AM算法是用来可视化各个卷积层输入偏好的一种算法,其中每个神经元都负责提取特定特征。对于给定具有该特征的输入,则可在该神经元处得到最大的激活值。AM算法是通过输入特征x来
最大化神经元的激活函数:f(x)=argmaxx
ai,j(θ,
x)(1)式中:x为神经网络的输入;ai,j
(θ,x)为输入特征x第i层中的第j个卷积的激活;θ为权重或偏置值。算法的执行流程大致分为4步:(1)输入图像,获得某一层的特定卷积的激活ai,j
。(2)在CNN参数固定情况下,计算激活ai,j
(θ,x)与输入图像的梯度 ai,j
(θ,x)/ x。(3)通过迭代来更改输入图像的像素,使得激活最大化,采用梯度上升算法:
xi+1
=xi
+η ai,j
(θ,x) x
(2)式中,η为步长。(4)通
过引用正则项获得与真实值相近的解。把网络的直接输入特征x认为是零均值的输入,则优化
问题可定义为
f(x)=argmaxx
[ai
(x)-Rθ
(x)](3)式中,Rθ(x)为样本均值。在实际计算中,通过正则化操作,Rθ
(x)将特征x映射为更合适的形式,因此
x的8
5期李成范,等:一种基于“中国视云”平台的CNN核函数可视化方法 迭代公式又可表示为x′=Rθ
x+η ai
(x) ()x(4)式中,Rθ
的常用表达方式包括L2decay公式、高斯模糊、将范数值较小的像素设置为0、将贡献度小的像素设置为04种。通过AM算法获得输入层的输入偏好,得知神经网络卷积核获得的是什么特征,最终达到了解神经网络学习内容的目的。1.3 资源占用关于资源占用情况的可视化,通过计算每个变量的大小来显示所占用的显存大小,进而确定所需要的显存和容量。网络训练过程中占用资源的
可视化能够为网络设计者和用户显示每层网络运算时间、运算占用资源等情况,从而能够更好指导相关人员分配内存,有针对性的优化网络结构。此外,通过资源占用可视化方法能够查看每一层隐藏层所消耗的时间和占用资源,进而重新设计和优化网络。可视化展示是通过将每个网络层的资源占用比例与运行时间比例以图形显示实现的。1.4 高维数据降维针对高维数据降维可视化,主要使用最常用的主成分分析法(principalcomponentsanalysis,PCA)来实现对高维数据降维之后的可视化展示。PCA是通过计算数据矩阵的协方差矩阵获得矩阵中的若干个特征值最大的特征向量。针对高维数据降维,采用奇异值分解方法(singularvaluedecomposition,SVD)
来分解协方差矩阵实现PCA算法,具体步骤如下:
步骤
1 输入数据集X=x1
,x2
,…,x{}n
进行降维处理;
步骤
2 去平均值,即每一特征减去各自的平均值;
计算机在线应用
步骤3 计算每一个特征的协方差矩阵;步骤
4 利用SVD计算协方差矩阵的特征值与特征向量;步骤5 排序并选择若干个最大的特征值,将特
征向量分别作为列向量组成特征向量矩阵;
步骤6 将
数据转换到新构建的特征向量空间,进行降维结果可视化展示。
2 实 验2.1 实验环境及数据集
本实验依托“中国视云”平台,实验环境基于Linux服务器,所需的软件为:Python3.6+Pytorch1.2
+torchvision0.4+TensorBoard2.0。
为便于对比和验证效果,本实验选择图像识别领
域中公开的cifar10数据集进行测试与验证。该数据集共有60000张彩图像,图像尺寸均为32×32像
素;每6000张图像为一个类别,一共10类。在数据集中,设定训练集为前50000张图像,测试集为后10000张图像;每一类数据集中又随机抽取1000张图像作为测试集,余下图像随机排列组成训练集。实验利用ResNet50网络对设定好规则的cifar10数据集进行训练,并使用本文所开发的可视化工具进行核函数和资源占用等展示。2.2 实验过程实验步骤包括以下步骤:(1)预处理数据集,包括载入cifar10数据集和相应的标注;(2)搭建ResNet50网络,调用可视化模块中的特征图可视化、核函数可视化函数等功能,将需要可视化的内容写入到数据文件;(3)将数据文件存放至指定目录,通过浏览器访问的方式展示可视化内容。2.3 实验结果本实验通过“中国视云”平台分别展示网络结构可视化、核函数可视化、资源占有数据可视化和高维数据降维可视化等结果。(1)图2为CNN网络结构可视化页面。在卷积层中,分别展示卷积过程、批标准化(Batch
Normalization,BN)、线性整流函数(RectifiedLinear
unit,ReLU)和最大池化层(maxpoollayer)。具体结果如图3所
示。图2 CNN网络结构  由图3可见,CNN网络每层之间捕捉的特征效果明显不同,通过激活函数和最大池化层后特征效果更加明显。在ResidualBlock层的输出特征显示中,以第4层为例,具体展示结果如图4所示。  由图4可见,ResidualBlock层中的特征图输出展示结果中已经突出显示了部分数据亮点。(2)图5展示了ResNet50网络中第4个残差层的可视化结果。由图5可见,在ResNet50网络结构9
 第
40卷 图
3 ConvLayer
中各层输出特征图
图中上方为Conv层的输出特征,右上方为BN层的输出特征,左下方
ReLU层的输出特征,右下方为MaxPool层的输出特征(a)具体结构
(b)展示结果
4 ResidualBlock
第4层的结构和输出特征
图5 
ResidualBlock
网络结构可视化
中,不仅显示出第4层结构包含一个卷积层和2个
教师幸福感调查残差层,通过将存在卷积过程的计算层放在辅助层中,可以通过点击相应的层来查看输入偏好。
  图6为残差层中卷积计算得到的输入偏好结果展示。在卷积层和残差层中,通过输入偏好的可视化,使得ResNet50模型学习过程和得到的特征结果清晰可见。
6 ResidualBlock4
中各层输入偏好三五太难了
从图6中
看出,神经网络在深层中更加关注纹理特征。由于输入偏好为随机图像,所以神经网络在浅层更加关注颜特征(图7)
。图
7 ResidualBlock1
中ConvBlock层输入偏好
由图6、7可
见,根据可视化结果可以清晰地了解特征学习程度和特征提取效果,根据可视化结果对模型参数或其他细节进行调整,以便达到更好的特征学习效果。(3)在资源占用的可视化中,分别生成资源占用情况的环形柱状图,结果如图8、9所示。由图8可
见,ResNet50网
络的每一层中分别包含若干个展示各层占用内存情况的子计算层,图
9分别显示ResNet50网络中每层和每层中子计算层的计算耗时情况。
图8 资
源占用情况图9 计算耗时情况
(4)在
三维数据可视化中,主要显示测试集在测试过程中高维数据降维的结果,如图10所示。从图
10中清晰地看出测试用例的分布情况,这表明模型已经具备了分类特征,不同类别数据在经过PC
A降维后,分类情况非常明显。
 第5期
李成范,等:一种基于“中国视云”平台的CNN核函数可视化方法 
图10 高维数据降维结果展示
3 结 语
本文提出的一种基于“中国视云”平台的CNN核函数可视化方法,并从网络结构、残差层、资源占用、高维数据降维等方面进行讨论和分析。
(1)通过最大激活函数实现CNN核函数可视化。与已有的核函数可视化方法比较,本文提出的方法能够清晰地可视化出每层的输出特征和神经网络学习特征。
(2)实现资源占用可视化,能够清晰显示神经网络每层资源使用和计算耗时情况,有助于调整网络
结构和参数优化。
(3)实现可视化功能模块化,加强可视化模块泛用性。后续用户可通过直接调用封装好的模块实现所需的可视化功能。
通过对神经网络核函数细节的可视化展示,不仅可以让研究人员近距离、直观地了解每层之间的变化和联系,而且能够通过可视化展示改进模型结构和参数,优化模型性能。
参考文献(References):
[1] 周飞燕,金林鹏,董 军.卷积神经网络研究综述[J].计算机学报,2017,40(6):1229 1251.
[2] HarleyAW.Aninteractivenode linkvisualizationofconvolutionalneuralnetworks[J].LectureNotesinComputerScience,2015,
9474:867 877.
[3] 刘建伟,王园方,罗雄麟.深度记忆网络研究进展[J].计算机学报,2020,24(2):1 52.
[4] WangZJ,TurkoR,ShaikhO,etal.CNN101:Interactivevisuallearningforconvolutionalneuralnetworks[J].Human Computer
Interaction,2020,33(4):25 32.
[5] 朱立才,孙 峰,胡小刚,等.采用有力措施提高大型仪器设备的使用率与效益[J].实验室研究与探索,2010,29(7):
176 178.
[6] 李成范,周时强,刘 岚,等.高校贵重仪器共享服务和示范应用实践与探索[J].实验室研究与探索,2018,37(7):296 300.[7] 赵青山,邹月利,徐雅琴.大型仪器设备科学管理体系的研究与实践[J].实验科学与技术,2010,8(3):171 173.[8] 左铁镛.高等学校实验室建设的作用与思考[J].实验室研究与探索,2011,30(4):1 5.[9] SunXK,LiCF,LiuL,etal.Dynamicmonitoringofhaze
pollutionusingsatelliteremotesensing[J].IEEESensorsJournal,
2015,20(20):11802 11811.
[10] StrobeltH,GehrmannS,PfisterH,etal.LSTMVis:Atoolfor
visualanalysisofhiddenstatedynamicsinrecurrentneuralnetworks
[J].IEEETransactionsonVisualizationandComputerGraphics,
2018,24(1):667 676.
[11] KahngM,ChauDH.HowdoesvisualizationhelppeoplelearndeeplearningEvaluationofGANlab[C]//IEEE2019Workshopon
EvaluationofInteractiveVisualMachineLearningSystems(VIS).
Vancouver,BC,Canada:[s.n.],2019:111 113.
[12] ChoS,ChoiJ.Visualizationofconvolutionalneuralnetworksfortimeseriesinputdata[J].JournalofKIISE,2020,47(5):
445 453.
[13] YosinskiJ,CluneJ,NguyenA,etal.Understandingneuralnetworksthroughdeepvisualization[J].ComputerVisionand
PatternRecognition,2015,25(3):256 268.
[14] LiuM,ShiJ,CaoK,etal.Analyzingthetrainingprocessesofdeepgenerativemodels[J].IEEETransactionsonVisualizationand
ComputerGraphics,2018,24(1):77 87.
[15] PezzottiN,HolltT,VanGemertJ,etal.DeepEyes:progressivevisualanalyticsfordesigningdee
pneuralnetworks[J].IEEE
TransactionsonVisualizationandComputerGraphics,2018,24
(1):98 108.
[16] KarimiD,SalcudeanSE.Reducingthehausdorffdistanceinmedicalimagesegmentationwithconvolutionalneuralnetworks[J].
IEEETransactionsonMedicalImaging,2019,22(8):564 571.[17] DevlinJ,ChangMW,LeeK,etal.Bert:Pre trainingofdeep
bidirectionaltransformersforlanguageunderstanding[J].Computer
andLanguage,2018,11(2):1 16.
[18] ZeilerMD,FergusR.Visualizingandunderstandingconvolutional
networks[C]//13thEuropeanconferenceoncomputervision
(ECCV).Zurich,Switzerland:[s.n.],2014:818 833.[19] ZhouZ,CaiH,RongS,etal.Activationmaximizationgenerativeadversarialnets[C]//InternationalConferenceonLearning
Representations(ICLR).Vancouver,Canada:[s.n.],2017:24
48.
[20] YangY,ChenT.Analysisandvisualizationimplementationof
medicalbigdataresourcesharingmechanismbasedo
ndeeplearning石榴套袋技术
[J].IEEEAccess,2019,7(99):156077 156088.
[21] KahngM,AndrewsPY,KalroA,etal.ActiVis:Visualexplorationofindustry scaledeepneuralnetworkmodels[J].IEEE
TransactionsonVisualizationandComputerGraphics,2018,24
(1):88 97.
[22] ShafferCA,CooperML,AlonAJD,etal.Algorithmvisualization:TheStateofthefield[J].ACMTransactionson
ComputingEducation,2010,10(3):1 22.
[23] SimonyanK,ZissermanA.Verydeepconvolutio
nalnetworksforlarge scaleimagerecognition[C]//InternationalConferenceon
LearningRepresentations(ICLR).Banff,AB,Canada:[s.n.],
2014:324 338.
[24] 罗 荣,王 亮,肖玉杰.深度学习技术应用现状分析与发展趋势研究[J].计算机教育,2019(10):19 22.
16

本文发布于:2024-09-21 17:35:49,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/475021.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:可视化   特征   数据   神经网络   函数
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议