人工智能基础课
王天一
工学博士,副教授
58937 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 59 讲
开篇词 (1讲)
人工智能基础课
15
15
1.0x
00:00/00:00
登录|注册

29 深度学习框架下的神经网络 | 见微知著:卷积神经网络

允许网络层数达到千层以上
解决深度网络性能下降问题
参数设置对性能的影响
残差网络
参数的不断更新提升图像特征提取的精度
逐层提取输入对象的特征
全连接层
池化层
激活层
卷积层
平移不变性
参数共享性
稀疏感知性
适用于处理网格化数据
应用了卷积运算的神经网络
设计因素
进展
训练
作用
结构
特性
原理与机制
卷积神经网络

该思维导图由 AI 生成,仅供参考

2017 年 9 月 13 日,苹果公司推出了新一代智能手机 iPhone X。相比于它的前辈们,iPhone X 的一项重要卖点就是引入了 Face ID 人脸识别技术,用户直接刷脸就可以解锁手机。虽然目前看来,Face ID 的识别率远没有苹果声称的那么“高精度”,但更加简单便捷的人脸识别无疑是未来的发展方向。而人脸识别乃至图像识别中的一项关键技术,就是卷积神经网络
诞生于 1989 年的卷积神经网络已近而立之年,但它的首秀直到 9 岁才姗姗来迟。1998 年,今日的深度学习扛鼎者之一燕乐存提出了第一个卷积神经网络模型 LeNet-5,用来识别手写文本。遗憾的是,这个小朋友因为胃口太大(消耗计算资源多),并不招人喜欢。直到 2006 年,辛顿提出的逐层初始化训练算法才让韬光养晦的卷积神经网络一鸣惊人,这个少年也渐渐成长为神经网络和深度学习队伍中的中坚力量。
顾名思义,卷积神经网络(convolutional neural network)指的是至少在某一层中用卷积运算(convolution)来代替矩阵乘法的神经网络。卷积运算的特性决定了神经网络适用于处理具有网格状结构的数据。最典型的网格型数据就是数字图像,不管是灰度图像还是彩色图像,都是定义在二维像素网格上的一组标量或向量。因而卷积神经网络自诞生以来,便广泛地应用于图像与文本识别之中,并逐渐扩展到自然语音处理等其他领域。
要介绍卷积神经网络,首先要从卷积运算说起。卷积是对两个函数进行的一种数学运算,在不同的学科中有不同的解释方式。在卷积网络中,两个参与运算的函数分别叫做输入和核函数(kernel function)。本质上讲,卷积就是以核函数作为权重系数,对输入进行加权求和的过程。为了突出这个本质,卷积神经网络中针对二维函数的卷积运算在原始的数学定义上做了一些调整,可以写成以下形式
用生活中的实例类比,卷积就可以看成是做菜,输入函数是原料,核函数则是菜谱。对于同一个输入函数鲤鱼来说,如果核函数中酱油的权重较大,输出的就是红烧鱼;如果核函数中糖和醋的权重较大,输出的就是杭帮菜的西湖醋鱼;如果核函数中辣椒的权重较大,输出的就是朝鲜族风味的辣鱼。不同的菜谱对应不同的口味,不同的核函数也对应不同的输出。
之所以将卷积运算应用于图像识别当中,是因为它具有一些优良的性质。卷积神经网络的稀疏感知性、参数共享性和平移不变性都有助于将它应用在图像处理之中
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

卷积神经网络(CNN)是一种应用了卷积运算的神经网络,适用于处理网格化数据,如图像和语音。CNN具有稀疏感知性、参数共享性和平移不变性等优良性质,使其在图像处理和自然语音处理等领域得到广泛应用。其核心结构包括卷积层、激活层、池化层和全连接层,通过交替出现的卷积层和池化层实现对输入对象特征的逐层提取。在CNN的训练中,卷积核是待训练的参数,训练采用反向传播的方法,不断更新参数以提升特征提取的精度。近年来,残差网络的提出解决了深度网络性能下降的问题,使网络层数可以达到千层以上,在图像分类和目标检测等问题上表现出优异的性能。在设计卷积层和池化层时,需要考虑诸如数据维度的变化和图像边界的策略设计等具体的技术细节。总的来说,CNN在处理网格化数据方面具有重要意义,其结构和训练方法对性能产生重要影响。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《人工智能基础课》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(7)

  • 最新
  • 精选
  • 林彦
    没带电脑,也连不上Google。现在只记得卷积网络里的一些参数,但对于如何设置这些参数,它们会影响什么没理解和记住。有机会以后找找这方面的入门文章看看。下面是我遇到过的一些参数,其中卷积核数目,尺寸,步长,padding,核初始化方法这些调整和设置更常见。 卷积核的数目,输出的维度; 卷积核的宽度和长度; 卷积的步长; padding; 激活函数,我的理解这个与卷积层,池化层不相关; 膨胀比例,我比较少遇到使用这个参数的例子; 是否使用偏置项; 核权值初始化方法; 偏置初始化方法; 施加在权重上的正则项; 施加在偏置向量上的正则项; 施加在输出上的正则项; 施加在权重上的约束项; 施加在偏置上的约束项.

    作者回复: 差不多就是这些,卷积核的大小和数目要根据实际任务去碰。

    2018-02-13
    1
  • 林彦
    从效果看,最好卷积层能发现不同的特征,同时计算量能少一些。下面属于我的臆测,未考证。 比如多大的卷积核尺寸适合发现直线,曲线,多大的卷积核适合发现开环,闭环。有的卷积核判断图形类别,轮廓,形状,有的卷积核判断图像明暗,有的卷积核判断色彩组合。多大的池化层能减小计算量和过拟合同时又能减小训练误差(不会欠拟合)。 另外之前见过案例说眼睛位置不对的人脸未能分辨出来,从这篇文章看是不是池化层的特性决定了对眼睛位置的判断会差一些。是不是通过卷积层或其他函数引入对位置特征的提取能改善这个问题。
    2018-02-13
    2
  • 林彦
    从效果看,最好卷积层能发现不同的特征,同时计算量能少一些。下面属于我的臆测,未考证。 比如多大的卷积核尺寸适合发现直线,曲线,多大的卷积核适合发现开环,闭环。有的卷积核判断图形类别,轮廓,形状,有的卷积核判断图像明暗,有的卷积核判断色彩组合。多大的池化层能减小计算量和过拟合同时又能减小训练误差(不会欠拟合)。 另外之前见过案例说眼睛位置不对的人脸未能分辨出来,从这篇文章看是不是池化层的特性决定了对眼睛位置的判断会差一些。是不是通过卷积层或其他函数引入对位置特征的提取能改善这个问题。
    2018-02-13
    1
  • 林彦
    今天这篇文章有很多不错的形象直观的比喻,很有助于理解和记忆。 如卷积核的作用比作菜谱;参数共享性中的直线;相似性中的直角;池化层是对最大值的提取与旋转不变性的关联。
    2018-02-13
    1
  • ifelse
    学习打卡
    2023-05-13归属地:浙江
  • Ken
    更直观的理解
    2020-09-01
  • 杨家荣
    极客时间 21天打卡行动 27/21 <<人工智能基础课29>> 见微知著:卷积神经网络 写在最前: no algorithm no convolution--微信签名 回答老师问题: 在卷积神经网络中,很多参数都会对性能产生影响。那么在设计卷积层和池化层时,需要考虑哪些具体的因素呢? 1,Max Pooling:最大池化 2,Average Pooling:平均池化 3,卷积层数,做到小而深; 今日所学: 1,卷积神经网络(convolutional neural network)指的是至少在某一层中用卷积运算(convolution)来代替矩阵乘法的神经网络。 2,卷积是对两个函数进行的一种数学_运算,在不同的学科中有不同的解释方式。在卷积网络中,两个参与运算的函数分别叫做输入 和核函数(kernel function)。本质上讲,卷积就是以核函数作为权重系数,对输入进行加权求和的过程。 3,卷积神经网络的稀疏感知性、参数共享性和平移不变性都有助于将它应用在图像处理之中。 4,稀疏感知性(sparse interaction)指的是卷积层核函数的大小通常远远小于图像的大小。 5,参数共享性(parameter sharing)指的则是在一个模型中使用相同的参数; 6,平移不变性(translational equivalence)指的是当卷积的输入产生平移时,其输出等于原始输出做出相同数量的平移,这说明平移操作和核函数的作用是可以交换的。 7,当输入图像被送入卷积神经网络后,先后要循环通过卷积层、激活层和池化层,最后从全连接层输出分类结果; 8,核函数将输入图像全部扫描完毕后,计算出的所有卷积结果又可以构成一个矩阵,这个新矩阵就是特征映射(feature map); 9,虽然卷积的表达式具有二维的形式,可如果把二维的输入和核函数拉成一维向量的话,卷积计算的实际上就是两者的内积! 10,通过合理设置核函数的性质,卷积层就能够提取出图像的特征; 11,卷积神经网络的卷积层之间通常周期性地会插入池化层(pooling layer)。池化层更恰当的名字是下采样层(downsampling layer),它的作用是对得到的特征映射矩阵进行筛选; 12,常见的最大池化(max pooling)的做法就是将特征映射划分为若干个矩形区域,挑选每个区域中的最大值,也就是最明显的特征作为下采样的结果; 13,池化机制的应用也可以看成是参数共享的体现:在一个图像区域有用的特征极有可能在另一个区域同样适用; 14,卷积神经网络结构工作流程:输入层将待处理的图像转化为一个或者多个像素矩阵,卷积层利用一个或多个卷积核从像素矩阵中提取特征,得到的特征映射经过非线性函数处理后被送入池化层,由池化层执行降维操作。卷积层和池化层的交替使用可以使卷积神经网络提取出不同层次上的图像特征。最后得到的特征作为全连接层的输入,由全连接层的分类器输出分类结果。 15,在卷积神经网络的训练里,待训练的参数是卷积核,也就是卷积层中的权重系数矩阵。训练采用的也是反向传播的方法,参数的不断更新能够提升图像特征提取的精度; 16,残差网络:将深度结构应用于卷积神经网络当中可以增强表达能力,在图像分类和目标检测等问题上表现出优异的性能。可是当网络的层数超过特定的阈值时,训练误差也会随着层数的增加而增加,网络的性能不仅不能提升,反而会出现显著的退化。残差网络正是通过残差结构单元解决了深度网络性能下降的问题,使网络层数可以达到千层以上。 重点提炼: 1,卷积神经网络是应用了卷积运算的神经网络,适用于处理网格化数据; 2,卷积神经网络具有稀疏感知性、参数共享性和平移不变性; 3,卷积神经网络的结构包括交替出现的卷积层、激活层和池化层,以及作为输出的全连接层; 4,卷积神经网络的作用是逐层提取输入对象的特征。
    2020-01-14
收起评论
显示
设置
留言
7
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部