神经网络-卷积神经网络 小鱼儿 2022-11-12 01:41 381阅读 0赞 # 卷积神经网络最基本的操作:卷积、池化、全连接 # # 1、卷积操作 # 什么是卷积操作?我们先定义一个目的,让卷积神经网络去识别数字 “17” 和字母 “L”。 有三张图片,一个是数字17,还有两张是字母L,位置不同 ![2021032122170930.png][] ![20210321221723367.png][] ![20210321221717399.png][] 定义三个不同的卷积核,我们把卷积核定义为3x3的,分别命名为A卷积核、B卷积核、C卷积核 ![20210321222123627.png][] ![20210321222234357.png][] ![20210321222306113.png][] 首先是A卷积核跟第一张图片做卷积操作,A卷积核以如下图的顺序依次扫描,每扫描一个区域都要做内积运算。 例如:下图第一个图中,表示扫描到第一个区域,一一对应的位置,做个内积:0\*0 + 1\*0 + 0\*0 + 0\*0 + 1\*1 + 0\*0 + 0\*0 + 1\*1 +0\*0 = 2。 也就是说,卷积核的第一个数字0乘以扫描区域的第一个数0,加上 卷积核的第二个数字1乘以扫描区域的第二个数0 ........ 一直加,下图中的图二也同样道理 从头扫描到尾以后,我们会发现这个卷积核的扫过的轨迹就是5x5的矩阵,那么就做了25次内积,每一次得到的内积都填进这个5x5矩阵对应的位置,就得到了特征矩阵 ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70][] ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 1][] 得到的特征矩阵: 我们发现,这个特别大的数字分布在左侧和右侧,也就是竖线这个特征分布在图像的左侧核右侧。因为我们选择的卷积核是一个竖线的那个,那么这张图片匹配竖线的地方就会凸现出来 ![20210321225107539.png][] 同道,如果拿C卷积核去跟第二张图片做卷积(左下角为字母L的那张),我们就会发现,得出的特征矩阵左下角的数字会很大,说明字母L的特征分布在左下角。 如果拿C卷积核去跟第三张图片做卷积(有边下角为字母L的那张),我们会发现,得出的特征矩阵右上角的数字会很大,说明字母L的特征分布在右上角。 足以说明,图像的无论在什么位置,卷积神经网络都能识别出图像的特征来。 有些图片要有多个卷积核来匹配多个特征,例如判断数字17,就要用到A卷积核和B卷积核,如果发现得到的两个特征矩阵里边,其中一个矩阵的左侧和右侧的竖线分布的值非常大,并且,另一个矩阵的右上角"7"形状的数值也很大,那么基本上可以判断这个图片就是数字17。 数字越大,说明越拥有卷积核里面的特征,数字稍微小一点,说明特征表现得若一些,数字非常小,说明没有这个特征。 # 2、池化操作 # 池化操作就很简单了,池化的目的是减少数据量,如果通过卷积操作以后,得出的特征矩阵很大,就要将这个特征矩阵进行池化。 我们选择一个3x3的池化核,池化核没有参数,用下划线表示 ![20210321231746937.png][] 对上面卷积操作得到的特征矩阵进行池化 ![20210321231648549.png][] 还是老方法,池化核去扫描这个特征矩阵。如果是求最大值池化操作。 ![20210321232206975.png][] ![20210321232403562.png][] 。。。。。。。。![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 2][] 扫过的轨迹就是一个3x3的矩阵,每扫一个区域的时候,求最大值即可。也就是说,扫第一个区域的时候,最大值是3,第二个区域最大值是1,第三个区域最大值是3 .....以此类推。 得到如下特征矩阵矩阵,这个就是"最大值池化"的操作 ![20210321232740478.png][] 我们发现,池化以后,还是保留了我们想要的特征,左侧核右侧都有明显的竖线特征的分布。 平均值池化不用多说,意思就是每扫描一个区域的时候,把9个数加起来求平均值,把每次求得的平均值按次序填入一个3x3的矩阵,得到池化后的特征矩阵。 # 3、全连接 # 卷积神经网络 = 卷积层 + 池化层 + 全连接层 所谓全连接层,就是上一章我们将的逻辑斯蒂回归模型的W\*x这个东东,充当一个分类器,也就是说普通的神经网络。池化层的输出,是一个简化后的特征矩阵,这个特征矩阵作为输入再通过权重矩阵求积,得到一个输出,这个输出要通过一系列的激活函数得出一个概率值,从而得出分类判断。 ### 下面是个人理解,仅供参考!!如果我的理解是错误的,感谢大神们指出来 ### 其中C表示卷积核,x表示被卷积核覆盖部分的输入,x是一个矩阵,F表示特征矩阵,max(F)表示把特征矩阵进行池化操作 (1)上面说到,我们使用了3x3的卷积层,覆盖的区域为3x3九宫格,所以有9个输入被覆盖,被覆盖的9个输入数值逐个对应位置与卷积核相乘并求和。 (2)我们使用的是3x3的池化核,我们在卷积层得到的输出是5x5的特征矩阵,所以池化核覆盖这个特征矩阵也是3x3九宫格,特征矩阵作为输入进入max(F)进行池化 (3)池化层的输出就是简化后的特征矩阵 (4)简化后的特征矩阵,再跟一些分类器,即一些权重矩阵做乘积,然后仍然是一系列的激活函数,得到每个分类的概率值 ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 3][] [2021032122170930.png]: https://img-blog.csdnimg.cn/2021032122170930.png [20210321221723367.png]: https://img-blog.csdnimg.cn/20210321221723367.png [20210321221717399.png]: /images/20221022/265169577d85439cbd7e81d86df06a14.png [20210321222123627.png]: https://img-blog.csdnimg.cn/20210321222123627.png [20210321222234357.png]: https://img-blog.csdnimg.cn/20210321222234357.png [20210321222306113.png]: https://img-blog.csdnimg.cn/20210321222306113.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70]: https://img-blog.csdnimg.cn/20210321223126285.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M=,size_16,color_FFFFFF,t_70 [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 1]: https://img-blog.csdnimg.cn/20210321223546854.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M=,size_16,color_FFFFFF,t_70 [20210321225107539.png]: https://img-blog.csdnimg.cn/20210321225107539.png [20210321231746937.png]: https://img-blog.csdnimg.cn/20210321231746937.png [20210321231648549.png]: https://img-blog.csdnimg.cn/20210321231648549.png [20210321232206975.png]: https://img-blog.csdnimg.cn/20210321232206975.png [20210321232403562.png]: https://img-blog.csdnimg.cn/20210321232403562.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 2]: https://img-blog.csdnimg.cn/20210321232525898.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M=,size_16,color_FFFFFF,t_70 [20210321232740478.png]: https://img-blog.csdnimg.cn/20210321232740478.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M_size_16_color_FFFFFF_t_70 3]: https://img-blog.csdnimg.cn/20210322004731659.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1hlb25fQ0M=,size_16,color_FFFFFF,t_70
相关 卷积神经网络 在介绍卷积神经网络之前我们先了解一下为什么不使用我们上一节介绍的神经网络(全连接层结构)来处理图像。使用全连接层结构处理图像时会出现以下问题: 输入图像需要将图像通过 曾经终败给现在/ 2024年02月17日 08:44/ 0 赞/ 102 阅读
相关 卷积神经网络 ![1598479-20190918171831229-1154648107.png][] ![1598479-20190918171837970-177932124 我会带着你远行/ 2023年08月17日 16:07/ 0 赞/ 192 阅读
相关 卷积神经网络 [卷积:kernel size/padding/stride][kernel size_padding_stride] (公式的计算) 留个坑,以后讲解 Conv1d 超、凢脫俗/ 2023年07月14日 08:28/ 0 赞/ 12 阅读
相关 神经网络-卷积神经网络 卷积神经网络最基本的操作:卷积、池化、全连接 1、卷积操作 什么是卷积操作?我们先定义一个目的,让卷积神经网络去识别数字 “17” 和字母 “L”。 有三张图片, 小鱼儿/ 2022年11月12日 01:41/ 0 赞/ 381 阅读
相关 卷积神经网络 卷积神经网络 转载请注明:http://blog.csdn[.NET][]/stdcoutzyx/article/details/41596663 自今年七月份以来,一 以你之姓@/ 2022年07月15日 02:50/ 0 赞/ 356 阅读
相关 卷积神经网络 卷积神经网络 转载请注明:http://blog.csdn[.NET][]/stdcoutzyx/article/details/41596663 自今年七月份以来,一 川长思鸟来/ 2022年07月14日 21:25/ 0 赞/ 422 阅读
相关 卷积神经网络 概述 简单描述 首先介绍神经网络的参数。这些参数是由一些可学习的滤波器集合构成的,每个滤波器在空间上(宽度和高度)都比较小`个人觉得这个滤波器就是卷积核`,但是深度和 浅浅的花香味﹌/ 2022年05月31日 13:59/ 0 赞/ 408 阅读
相关 卷积神经网络 目录 概述 卷积层 卷积层的产生 卷积运算 填充 步幅 应用滤波器后的输出数据大小计算 三维数据的卷积运算 批处理(‘四维数据’) 池化层 卷积层和池化层 浅浅的花香味﹌/ 2022年02月20日 00:17/ 0 赞/ 553 阅读
相关 卷积神经网络 [卷积神经网络][Link 1] 在上篇中介绍的输入层与隐含层的连接称为全连接,如果输入数据是小块图像,比如8×8,那这种方法是可行的,但是如果输入图像是96×96, 曾经终败给现在/ 2021年12月09日 14:55/ 0 赞/ 570 阅读
相关 卷积神经网络 阅读网页发现,要学习深度学习,应该首先对 [卷积神经网络(Convolutional Neural Networks,简称CNN)][Convolutional Neural 阳光穿透心脏的1/2处/ 2021年07月16日 18:03/ 0 赞/ 599 阅读
还没有评论,来说两句吧...