卷积神经网络中减少训练样本时间方法研究

卷积神经网络中减少训练样本时间方法研究
作者:范青
来源:《电脑知识与技术》2016年第33
        摘要:深度学习在人工智能尤其是在图像处理,图像分类方面的应用越来越广泛。其中卷积神经网络在其中具有重要地位。本文的主要目的为探究通过调整在网络中卷积过程所使用的滤波器大小,在保证分类结果准确率可接受情况下,尽量减少样本的训练时间,并总结出一套较为通用的滤波器大小设置规则。在文章中,通过对theano中基于lenet模型所构造的卷积神经网络的两层卷积层中的滤波器大小进行不同搭配的设置,测试数据集为广泛使用的mnist手写数字库以及cifar_10库,最后对比探究出适用于这两个数据集的减少训练时间的设置规律。水析仪
        关键词:卷积神经网络;深度学习;图像处理;训练时间
真空注型机        中图分类号:TP18 文献标识码:A 文章编号:1009-3044201633-0167-04
        如今在机器学习领域中,深度学习方法已经占据了相当重要的地位,通过模仿人脑学习
方式构造模型,在图像、文本、语音处理方面取得了显著成果[1]。目前应用较为广泛的深度学习模型包含多层感知器模型(MLP[2],卷积神经网络模型和限制性玻尔兹曼机模型等捕虾机电路图[4]中山一中协同办公。多层感知器人工智能建站[2]网络结构的神经节点一般分层排列,主要由输入层,输出层和一些隐层组成,同层之间的神经元节点无连接,相邻的两层神经元进行全连接,前一层的神经元的输出作为后一层神经元的输入,但本身此种算法存在着一些问题,那就是它的学习速度非常慢,其中一个原因就是由于层与层之间进行全连接,所以它所需要训练的参数的规模是非常大的,所以对其进行改进,产生了卷积神经网络模型。卷积神经网络模型在图像识别方面的应用十分广泛[589]。从它的结构上来看,层与层之间的神经元节点采用局部连接模式,而并非z轴线性马达MLP的全连接模型,这样就降低了需要训练的参数的规模。而在它卷积层中,它的每一个滤波器作为卷积核重复作用于整个输入图像中,对其进行卷积,而得出的结果作为输入图像的特征图[6],这样就提取出了图像的局部特征。而由于每一个卷积滤波器共享相同的参数,这样也就大大降低了训练参数的时间成本。而本文,以卷积神经网络为研究对象,在其模型的基础上通过对其结构中卷积核也就是滤波器的大小进行调整并结合卷积核个数调整和gpu加速等已有的训练提速方法,达到降低训练时间并且对识别结果并无太大影响的目的。

本文发布于:2024-09-21 20:38:48,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/3/117923.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:卷积   训练   模型   神经网络   学习   时间   图像
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议