为什么“卷积”神经网络 ╰+攻爆jí腚メ 2022-06-17 01:43 246阅读 0赞 一直在接触卷积神经网络,今天就说一下**为什么会有卷积**,**卷积会带来什么好处**和**CNN中如何使用卷积**。 ## 为什么会有卷积 ## (这里主要解释下卷积具有什么意义,为什么人们会想到卷积。有些人一提到卷积可能首先想起来的是局部连接、参数共享呀等等,这些只是它带来的好处。如果一个方法对于我们的问题本身没有什么意义,即使它会带来一大堆的好处人们应该也是不会去使用的。) 19世纪60年代,科学家通过对猫的视觉皮层细胞研究发现,每一个视觉神经元只会处理一小块区域的视觉图像,即感受野(Receptive Field)。卷积神经网络的概念即出自于此。简单说**这样做保留了图像的空间信息**。 在卷积神经网络中,一个卷积层可以有多个不同的卷积核(也可以说是滤波器),而每个卷积核在输入图像上滑动且每次只处理一小块图像。这样输入端的卷积层可以提取到图像中最基础的特征,比如不同方向的直线或者拐角;接着再组合成高阶特征,比如三角形、正方形等;再继续抽象组合,得到眼睛、鼻子和嘴等五官;最后再将五官组合成一张脸,完成匹配识别。即每个卷积层提取的特征,在后面的层中都会抽象组合成更高阶的特征。 图像具有很强的空间相关性。其中每一个卷积核滤波得到的图像就是一类特征的映射,即一个Feature Map。和SIFT算法等类似,CNN训练的模型同样对缩放、平移、旋转等具有不变性(关于这一块,参考:[卷积神经网络提取图像特征时具有旋转不变性吗?][Link 1], [池化][Link 2]),有着很强的泛化能力。 ## 卷积会带来什么好处 ## 卷积层的两个要点:**局部连接(Local Connection)**和**权值共享(Weight Sharing)**。 局部连接:每个神经元只与上一层的一个局部区域连接,该连接的空间大小叫做神经元的感受野(receptive field)。 权值共享:当前层在深度方向上每个channel的神经元都使用同样的权重和偏差。这里作了一个合理的假设:如果一个特征在计算某个空间位置(x,y)的时候有用,那么它在计算另一个不同位置(x2,y2)的时候也有用。 局部连接和权值共享降低了参数量,使训练复杂度大大下降,并减轻了过拟合。同时权值共享还赋予了卷积网络对平移的容忍性。 (简单提一下,卷积神经网络中一般还包含有池化层(Pooling)。池化层的降采样输出参数量,并赋予了模型对轻度形变的容忍性,提高了模型的泛化能力。) ## CNN中如何使用卷积 ## 在卷积层种有3个超参数控制着输出数据体的尺寸:深度(depth),步长(stride)和零填充(zero-padding)。不再赘述。 下面给个LeNet-5模型的卷积参数量,可以看到它比全连接少了许多。网址:[http://yann.lecun.com/exdb/lenet/][http_yann.lecun.com_exdb_lenet] ![这里写图片描述][SouthEast] (手写为每一个卷积层的参数计算) 参考: [CS231n课程笔记翻译:卷积神经网络笔记][CS231n] 黄文坚《TensorFlow实战》5.1节 卷积神经网络简介 [Link 1]: https://www.zhihu.com/question/30817011 [Link 2]: http://ufldl.stanford.edu/wiki/index.php/%E6%B1%A0%E5%8C%96#.E6.B1.A0.E5.8C.96.E7.9A.84.E4.B8.8D.E5.8F.98.E6.80.A7 [http_yann.lecun.com_exdb_lenet]: http://yann.lecun.com/exdb/lenet/ [SouthEast]: /images/20220617/a82b9e683636487193875930fb39ce29.png [CS231n]: https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit
相关 卷积神经网络 在介绍卷积神经网络之前我们先了解一下为什么不使用我们上一节介绍的神经网络(全连接层结构)来处理图像。使用全连接层结构处理图像时会出现以下问题: 输入图像需要将图像通过 曾经终败给现在/ 2024年02月17日 08:44/ 0 赞/ 103 阅读
相关 卷积神经网络 ![1598479-20190918171831229-1154648107.png][] ![1598479-20190918171837970-177932124 我会带着你远行/ 2023年08月17日 16:07/ 0 赞/ 193 阅读
相关 卷积神经网络 [卷积:kernel size/padding/stride][kernel size_padding_stride] (公式的计算) 留个坑,以后讲解 Conv1d 超、凢脫俗/ 2023年07月14日 08:28/ 0 赞/ 13 阅读
相关 神经网络-卷积神经网络 卷积神经网络最基本的操作:卷积、池化、全连接 1、卷积操作 什么是卷积操作?我们先定义一个目的,让卷积神经网络去识别数字 “17” 和字母 “L”。 有三张图片, 小鱼儿/ 2022年11月12日 01:41/ 0 赞/ 382 阅读
相关 卷积神经网络 卷积神经网络 转载请注明:http://blog.csdn[.NET][]/stdcoutzyx/article/details/41596663 自今年七月份以来,一 以你之姓@/ 2022年07月15日 02:50/ 0 赞/ 357 阅读
相关 卷积神经网络 卷积神经网络 转载请注明:http://blog.csdn[.NET][]/stdcoutzyx/article/details/41596663 自今年七月份以来,一 川长思鸟来/ 2022年07月14日 21:25/ 0 赞/ 424 阅读
相关 卷积神经网络 概述 简单描述 首先介绍神经网络的参数。这些参数是由一些可学习的滤波器集合构成的,每个滤波器在空间上(宽度和高度)都比较小`个人觉得这个滤波器就是卷积核`,但是深度和 浅浅的花香味﹌/ 2022年05月31日 13:59/ 0 赞/ 409 阅读
相关 卷积神经网络 目录 概述 卷积层 卷积层的产生 卷积运算 填充 步幅 应用滤波器后的输出数据大小计算 三维数据的卷积运算 批处理(‘四维数据’) 池化层 卷积层和池化层 浅浅的花香味﹌/ 2022年02月20日 00:17/ 0 赞/ 555 阅读
相关 卷积神经网络 [卷积神经网络][Link 1] 在上篇中介绍的输入层与隐含层的连接称为全连接,如果输入数据是小块图像,比如8×8,那这种方法是可行的,但是如果输入图像是96×96, 曾经终败给现在/ 2021年12月09日 14:55/ 0 赞/ 571 阅读
相关 卷积神经网络 阅读网页发现,要学习深度学习,应该首先对 [卷积神经网络(Convolutional Neural Networks,简称CNN)][Convolutional Neural 阳光穿透心脏的1/2处/ 2021年07月16日 18:03/ 0 赞/ 600 阅读
还没有评论,来说两句吧...