Mask R-CNN图像特征提取网络的理解与探析

2020年第7期
自动点火器
164网络与信息安全
信息技术与信息化
Mask R-CNN 图像特征提取网络的理解与探析
张美玲*  甄金鹏  李亚玲
ZHANG Mei-ling  ZHEN Jin-peng  LI Ya-ling
水玻璃铸造摘 要              Mask R-CNN 是一种实例分割算法,可以完成目标检测、实例分割、关键点检测等计算机视觉领域的一
些基础任务。本文中主要针对Mask R-CNN 图像特征提取网络进行介绍,以加深Mask R-CNN 前段基础处理网络中对图像特征提取部分的理解。
免水冲厕所
关键词                  Mask R-CNN ;计算机视觉;特征提取;FPN ;残差模块风力发电汽车
弱碱水设备
doi:10.3969/j.issn.1672-9528.2020.07.055
* 河北农业大学 河北保定 071001
0  引言
Mask R-CNN 是一个对象实例分割框架,它可以有效地在图像中进行目标检测,并且由于框架中遮罩添加分支的存在可以并行的为目标生成高质量的分割掩码。本文关注于整个实例分割框架中的特征提取网络即骨架网络部分。骨架网络一般是指神经网络框架中用于特征提取从而得到相应的特征图的那部分卷积神经网络。卷积神经网络在各个领域广泛的发挥其作用,比如物体分割,自动上,风格转换等方面。但在本质上卷积神经网络只是在以一个特征提取器的身份发挥其作用,所以上述提到的一些应用,都是建立在卷积神经网络对图像进行特征提取的基础上的。于是我们对特征提取网络作简单分析。1  卷积神经网络的新难题
Mask R-CNN 中骨干网络(特征提取网络)提供了一种由FPN 配合ResNet 完成特定功能的搭配。一般来说,所构建网络的深度越深,整个模型的效能便越好。于是乎卷积神经网络模型的发展从一开始便是伴随着网络深度的不断加深而向前推进的。但是这一规则随着后续的研究出现了反转,我们发现不断地增加网络深度并不会有持续的正向作用,即模型的性能并不会持续的提升。在实验中出现了模型的性能伴随着网络深度的加深而出现性能下降的退化情况。
现在我们来思考模型退化这个问题,假设我们当前有一个堆叠好的模型在实际实验中已经具备了良好电缆接头闵彬管业
的模型性能。按照常理来说,如果我们在此模型的基础上再次进行堆叠,那么按照长此以往的规律即模型越深性能越好,最终的结果是再次堆叠后模型性能只会更好或者说相较于堆叠前也不会变差,做出如上判断的原因是假设新堆叠的每一层发挥正向作用或者直接就不发挥任何作用。然而事实情况却不是如此,这即是问题所在。
实际上,对于卷积神经网络来讲,由于所堆叠网络中非线性激活函数的作用导致每一层输入到输出的过程中每次都存在信息损失,于是这使得特征随着层层前向传播还能够保持几乎不变的可能性微乎其微,就是说经过每一层就会对信息做一次不同程度的处理。针对这个情况,何凯明团队提出
了残差模块的新思路,残差模块的提出使得相应模型的网络在达到一定性能要求后,更深的层不会对信息过分处理,至少能够实现恒等映射。2  残差模块
一般情况下一些层和一条捷径组成了残差模块的基本形态。显而易见的在输入的时候新增的一条捷径跳过一系列连续的层将未经处理的输入信息直送该模块尾部。输入信息通过一系列连续层的作用得到F(x),F(x)与捷径得到的原输入x 在激活前进行和操作,再将上述操作得到的输出传送给Relu 激活函数最终生成这个模块的输出,残差模块是构建Resnet 网络重要的一环。残差模块基本结构如图1所示。
图1  残差模块基本结构图
于是便在不增加计算成本的前提下解决了问题:在整个前向传播的过程中,相较于当前性能已经较为成熟的网络,使其更深层的网络不对信息做过多操作,至少达成恒等映射的目标。通过捷径这个新思路保护了信息的完整性,与此同时降低了模型学习的难度。
传统卷积神经网络都是一层一层持续的向下堆叠加深,
如图2实线所示。新思路的出现使得传统的卷积神经网络变

本文发布于:2024-09-22 11:37:03,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/219674.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:网络   模型   模块   神经网络   分割   卷积   性能   残差
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议