卷积神经网络的层数一般超过三层_卷积神经网络CNN的意义

卷积神经⽹络的层数⼀般超过三层_卷积神经⽹络CNN的意义
离婚冷静期细则
⼀、选⽤卷积的原因局部感知简单来说,卷积核的⼤⼩⼀般⼩于输⼊图像的⼤⼩(如果等于则是全连接),因此卷积提取出的特征会更多地关中航工业航宇救生装备有限公司
注局部 —— 这很符合⽇常我们接触到的图像处理。⽽每个神经元其实没有必要对全局图像进⾏感知,只需要对局部进⾏感知,然后在更⾼
层将局部的信息综合起来就得到了全局的信息。
参数共享参数共享最⼤的作⽤莫过于很⼤限度地减少运算量了。
多核⼀般我们都不会只⽤⼀个卷积核对输⼊图像进⾏过滤,因为⼀个核的参数是固定的,其提取的特征也会单⼀化。这就有点像是我们平时
如何客观看待事物,必须要从多个⾓度分析事物,这样才能尽可能地避免对该事物产⽣偏见。我们也需要多个卷积核对输⼊图像进⾏卷积。
⼆、卷积神经⽹络中的参数计算举例1:
ANTIGLOBALIZATION
⽐如输⼊是⼀个32x32x3的图像,3表⽰RGB三通道,每个filter/kernel是5x5x3,⼀个卷积核产⽣⼀个feature map,下图中,有6个
5x5x3的卷积核,故输出6个feature map(activation map),⼤⼩即为28x28x6。
下图中,第⼆层到第三层,其中每个卷积核⼤⼩为5x5x6,这⾥的6就是28x28x6中的6,两者需要相同,即每个卷积核的“层数”需要与输⼊的“层数”⼀致。有⼏个卷积
马恒昌
举例2:
NxN⼤⼩的输⼊(暂时不考虑通道数),与FxF⼤⼩的卷积核(暂时不考虑个数)做卷积,那么输出⼤⼩为多⼤?计算公式为:(N - F) / stride
+ 1,其中stride为做卷积是相邻卷积核的距离。
举例3:
当输⼊为7x7⼤⼩,卷积核为3x3,stride=1,在7x7周围补上⼀圈0(pad=1个像素),那么输出⼤⼩为多⼤?
是7x7。
举例3:
输⼊为32x32x3,卷积核⼤⼩为5x5,总共有10个卷积核,做卷积的时候stride=1,pad=2,那么这⼀层总共含有多少参数?每个卷积核含有的参数个数为:5*5*3 +
总结:
其中,卷积核的数量K⼀般是2的整数次幂,这是因为计算⽅便(计算机计算2^n⽐较快)
付余楠楠
关于池化层的参数计算:
Pooling 的意义,主要有两点:
其中⼀个显⽽易见,就是减少参数。通过对 Feature Map 降维,有效减少后续层需要的参数。另⼀个则是 Translation Invariance。它表⽰对于 Input,当其中像素在邻域发⽣微⼩位移时,Pooling Layer 的输出是不变的。这就使⽹络的鲁棒性增强了,有⼀定抗扰动的作⽤。参考:
三、边界填充问题卷积操作有两个问题:
1. 图像越来越⼩;
2. 图像边界信息丢失,即有些图像⾓落和边界的信息发挥作⽤较少。因此需要padding。
卷积核⼤⼩通常为奇数⼀⽅⾯是为了⽅便same卷积padding对称填充,左右两边对称补零;n+2p-f+1=np=(f-1)/2另⼀⽅⾯,奇数过滤器有中⼼像素,便于确定过滤器的位置。
诉求对象两种padding⽅式:"same"/"valid"
“VALID”只会丢弃最右边⽆法扫描到的列(或者最底部⽆法扫描到的列)。
“SAME”试图在左右添加padding,但如果列添加的数量是奇数,则将额外的添加到右侧(即保持双数时,左右padding相通,偶数时,右
侧/底部 ⽐ 左侧/顶部 多1),在垂直⽅向同理)。

本文发布于:2024-09-21 20:49:40,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/475011.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:卷积   参数   图像   需要   事物   信息   像素   边界
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议