欢迎访问 生活随笔!

ag凯发k8国际

当前位置: ag凯发k8国际 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

深度学习:卷积神经网络(convolution neural network) -ag凯发k8国际

发布时间:2024/4/17 卷积神经网络 79 豆豆
ag凯发k8国际 收集整理的这篇文章主要介绍了 深度学习:卷积神经网络(convolution neural network) 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

(一)卷积神经网络

卷积神经网络最早是由lecun在1998年提出的。

卷积神经网络通畅使用的三个基本概念为:

1.局部视觉域;

2.权值共享;

3.池化操作。

 在卷积神经网络中,局部接受域表明输入图像与隐藏神经元的连接方式。在图像处理操作中采用局部视觉域的原因是:图像中的像素并不是孤立存在的,每一个像素与它周围的像素都有着相互关联,而并不是与整幅图像的像素点相关,因此采用局部视觉接受域可以类似图像的此种特性。

另外,在图像数据中存在大量的冗余数据,因此在图像处理过程中需要对这些冗余数据进行处理。因此在卷积神经网络中,采用pooling的方法来对图像中的冗余数据进行处理,得到描述性更强的数据特性。pooling方法常用的有maxpooling和meanpooling两种方式。

权值共享:使用卷积核构建像素之间关联时,每一个隐含神经元在使用卷积核进行操作时的权重是共享的。在对图像进行卷积操作室,并不需要对每一个卷积核新建立参数,滑动过程中的卷积核参数都是共享的。这样就意味着第一层隐含神经元所检测到完全一样的特征,只不过是输入图像的不同位置。为了明白这个过程为什么有效果,我们假定给定的权重和偏移量学习到的特征为一个局部视觉域的垂直检测特征,那么这个特征是可以使用到其它应用中的。因此,我们一般把第一步通过隐藏神经元得到的数据叫做feature map。我们把这个过程中学习到的权重叫做shared weight,把该过程学习到的bias成为shared bias。而将shared weight同shared bias结合起来就是一个卷积核或者是滤波器(a filter or kernel)。而且在实际应用中,经常选取多个kernel,用于描述输入在不同kernel下学习到的特征。

在经过卷积层之后,学习到的特征类似于如下的特征:

这些特征的数量为20,那么对应的filter/kernel的数量也为20。在学习到的特征描述中,白色像素块表示权值小,特征图对输入像素的像素响应小,而黑色像素块的权值大,特征图对输入像素的响应大。每一个特征图为5*5,对应的5*5的权值。从这些特征图中可以发现,通过卷积操作真正的学到一些相关的空间结构,但是我们并不知道这些特征检测子学习到什么。

权值共享的好处就是该操作大大降低了网络参数的个数。

卷积神经网络层结构的理解:

卷积层

convolution层一般紧接着pooling层,pooling层的操作如下图所示:

我们可以认为max-pooling是一种在图像区域中寻找是否发现特征位置的操作。在发现图像特征位置后,可以丢弃特征的位置信息。

pooling层可以降低在接下来操作过程中的参数数量。但是max-pooling并不是唯一的pooling方法,l2方法也是一种常用pooling方式,l2pooling的思路是对局部区域中的像素值采用l2规则化计算。同时存在其他pooling方法,具体使用过程根据应用确定。

参考资料:

cs231n convolutional neural networks for visual recognition

 

(二)深度学习基础知识总结

batchsize在深度学习算法中的作用:

 

  在sgd算法里面,梯度是minibatch的平均值。batchsize越大,噪声梯度越小。而噪声是用来使得收敛值逃离局部最小值的扰动。这就是sgd算法比bgdbatch gradient descent)好的地方,minibatch大小选择并没有一个确定的规矩,这是根据网络和数据来决定的,而minibatch size的选择是通过不断尝试获取最优sizebatchsize越小,更新值的噪声也就越大。因此,降低batchsize时需要降低lr值,通过更多的迭代次数来获取更好训练效果。(原帖链接)

 

  在使用caffe训练的过程中,需要考虑到夏卡的显存问题,因此在调整训练参数时,修改validation.prototxt中的batch_size值同样可以降低对显存的需求。在caffebase_lr和batch_size是相关联的,理论上当时用x降低batchsize时(128->64),需要对base_lr应该乘以sqrt(x)。应该修改的值为stepsizemax_iterbatchsize除以x,那么这两个值应该乘以x,同时应该注意网络的loss,如果在 10k-20k 迭代之后loss > 6.9 (which is basically random guessing),那么网络在迭代过程中并没有学习到东西。(原帖链接1,原帖链接2)

 

转载于:https://www.cnblogs.com/empty16/p/4907869.html

总结

以上是ag凯发k8国际为你收集整理的深度学习:卷积神经网络(convolution neural network)的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得ag凯发k8国际网站内容还不错,欢迎将ag凯发k8国际推荐给好友。

  • 上一篇:
  • 下一篇:
网站地图