人工智能基础课
王天一
工学博士,副教授
立即订阅
12221 人已学习
课程目录
已完结 58 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 人工智能:新时代的必修课
免费
数学基础 (7讲)
01 数学基础 | 九层之台,起于累土:线性代数
02 数学基础 | 月有阴晴圆缺,此事古难全:概率论
03 数学基础 | 窥一斑而知全豹:数理统计
04 数学基础 | 不畏浮云遮望眼:最优化方法
05 数学基础 | 万物皆数,信息亦然:信息论
06 数学基础 | 明日黄花迹难寻:形式逻辑
(课外辅导)数学基础 | 拓展阅读参考书
机器学习 (10讲)
07 机器学习 | 数山有路,学海无涯:机器学习概论
08 机器学习 | 简约而不简单:线性回归
09 机器学习 | 大道至简:朴素贝叶斯方法
10 机器学习 | 衍化至繁:逻辑回归
11 机器学习 | 步步为营,有章可循:决策树
12 机器学习 | 穷则变,变则通:支持向量机
13 机器学习 | 三个臭皮匠,赛过诸葛亮:集成学习
14 机器学习 | 物以类聚,人以群分:聚类分析
15 机器学习 | 好钢用在刀刃上:降维学习
(课外辅导)机器学习 | 拓展阅读参考书
人工神经网络 (7讲)
16 人工神经网络 | 道法自然,久藏玄冥:神经网络的生理学背景
17 人工神经网络 | 一个青年才俊的意外死亡:神经元与感知器
18 人工神经网络 | 左手信号,右手误差:多层感知器
19 人工神经网络 | 各人自扫门前雪:径向基函数神经网络
20 人工神经网络 | 看不见的手:自组织特征映射
21 人工神经网络 | 水无至清,人莫至察:模糊神经网络
(课外辅导)人工神经网络 | 拓展阅读参考书
深度学习 (7讲)
22 深度学习 | 空山鸣响,静水流深:深度学习概述
23 深度学习 | 前方有路,未来可期:深度前馈网络
24 深度学习 | 小树不修不直溜:深度学习中的正则化
25 深度学习 | 玉不琢不成器:深度学习中的优化
26 深度学习 | 空竹里的秘密:自编码器
27 深度学习 | 困知勉行者勇:深度强化学习
(课外辅导)深度学习 | 拓展阅读参考书
深度学习框架下的神经网络 (5讲)
28 深度学习框架下的神经网络 | 枯木逢春:深度信念网络
29 深度学习框架下的神经网络 | 见微知著:卷积神经网络
30 深度学习框架下的神经网络 | 昨日重现:循环神经网络
31 深度学习框架下的神经网络 | 左右互搏:生成式对抗网络
32 深度学习框架下的神经网络 | 三重门:长短期记忆网络
深度学习之外的人工智能 (4讲)
33 深度学习之外的人工智能 | 一图胜千言:概率图模型
34 深度学习之外的人工智能 | 乌合之众的逆袭:集群智能
35 深度学习之外的人工智能 | 授人以鱼不如授人以渔:迁移学习
36 深度学习之外的人工智能 | 滴水藏海:知识图谱
应用场景 (4讲)
37 应用场景 | 你是我的眼:计算机视觉
38 应用场景 | 嘿, Siri:语音处理
39 应用场景 | 心有灵犀一点通:对话系统
40 应用场景 | 数字巴别塔:机器翻译
加餐 (5讲)
课外谈 | “人工智能基础课”之二三闲话
推荐阅读 | 我与人工智能的故事
直播回顾 | 机器学习必备的数学基础
第2季回归 | 这次我们来聊聊机器学习
新书 | 《裂变:秒懂人工智能的基础课》
复习课 (7讲)
一键到达 | 数学基础复习课
一键到达 | 机器学习复习课
一键到达 | 人工神经网络复习课
一键到达 | 深度学习复习课
一键到达 | 深度学习框架下的神经网络复习课
一键到达 | 深度学习之外的人工智能复习课
一键到达 | 应用场景复习课
结束语 (1讲)
结课 | 溯洄从之,道阻且长
人工智能基础课
登录|注册

29 深度学习框架下的神经网络 | 见微知著:卷积神经网络

王天一 2018-02-13
2017 年 9 月 13 日,苹果公司推出了新一代智能手机 iPhone X。相比于它的前辈们,iPhone X 的一项重要卖点就是引入了 Face ID 人脸识别技术,用户直接刷脸就可以解锁手机。虽然目前看来,Face ID 的识别率远没有苹果声称的那么“高精度”,但更加简单便捷的人脸识别无疑是未来的发展方向。而人脸识别乃至图像识别中的一项关键技术,就是卷积神经网络
诞生于 1989 年的卷积神经网络已近而立之年,但它的首秀直到 9 岁才姗姗来迟。1998 年,今日的深度学习扛鼎者之一燕乐存提出了第一个卷积神经网络模型 LeNet-5,用来识别手写文本。遗憾的是,这个小朋友因为胃口太大(消耗计算资源多),并不招人喜欢。直到 2006 年,辛顿提出的逐层初始化训练算法才让韬光养晦的卷积神经网络一鸣惊人,这个少年也渐渐成长为神经网络和深度学习队伍中的中坚力量。
顾名思义,卷积神经网络(convolutional neural network)指的是至少在某一层中用卷积运算(convolution)来代替矩阵乘法的神经网络。卷积运算的特性决定了神经网络适用于处理具有网格状结构的数据。最典型的网格型数据就是数字图像,不管是灰度图像还是彩色图像,都是定义在二维像素网格上的一组标量或向量。因而卷积神经网络自诞生以来,便广泛地应用于图像与文本识别之中,并逐渐扩展到自然语音处理等其他领域。
要介绍卷积神经网络,首先要从卷积运算说起。卷积是对两个函数进行的一种数学运算,在不同的学科中有不同的解释方式。在卷积网络中,两个参与运算的函数分别叫做输入和核函数(kernel function)。本质上讲,卷积就是以核函数作为权重系数,对输入进行加权求和的过程。为了突出这个本质,卷积神经网络中针对二维函数的卷积运算在原始的数学定义上做了一些调整,可以写成以下形式
用生活中的实例类比,卷积就可以看成是做菜,输入函数是原料,核函数则是菜谱。对于同一个输入函数鲤鱼来说,如果核函数中酱油的权重较大,输出的就是红烧鱼;如果核函数中糖和醋的权重较大,输出的就是杭帮菜的西湖醋鱼;如果核函数中辣椒的权重较大,输出的就是朝鲜族风味的辣鱼。不同的菜谱对应不同的口味,不同的核函数也对应不同的输出。
之所以将卷积运算应用于图像识别当中,是因为它具有一些优良的性质。卷积神经网络的稀疏感知性、参数共享性和平移不变性都有助于将它应用在图像处理之中
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《人工智能基础课》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(4)

  • 林彦
    从效果看,最好卷积层能发现不同的特征,同时计算量能少一些。下面属于我的臆测,未考证。

    比如多大的卷积核尺寸适合发现直线,曲线,多大的卷积核适合发现开环,闭环。有的卷积核判断图形类别,轮廓,形状,有的卷积核判断图像明暗,有的卷积核判断色彩组合。多大的池化层能减小计算量和过拟合同时又能减小训练误差(不会欠拟合)。

    另外之前见过案例说眼睛位置不对的人脸未能分辨出来,从这篇文章看是不是池化层的特性决定了对眼睛位置的判断会差一些。是不是通过卷积层或其他函数引入对位置特征的提取能改善这个问题。
    2018-02-13
    1
  • 林彦
    从效果看,最好卷积层能发现不同的特征,同时计算量能少一些。下面属于我的臆测,未考证。

    比如多大的卷积核尺寸适合发现直线,曲线,多大的卷积核适合发现开环,闭环。有的卷积核判断图形类别,轮廓,形状,有的卷积核判断图像明暗,有的卷积核判断色彩组合。多大的池化层能减小计算量和过拟合同时又能减小训练误差(不会欠拟合)。

    另外之前见过案例说眼睛位置不对的人脸未能分辨出来,从这篇文章看是不是池化层的特性决定了对眼睛位置的判断会差一些。是不是通过卷积层或其他函数引入对位置特征的提取能改善这个问题。
    2018-02-13
    1
  • 林彦
    没带电脑,也连不上Google。现在只记得卷积网络里的一些参数,但对于如何设置这些参数,它们会影响什么没理解和记住。有机会以后找找这方面的入门文章看看。下面是我遇到过的一些参数,其中卷积核数目,尺寸,步长,padding,核初始化方法这些调整和设置更常见。

    卷积核的数目,输出的维度;
    卷积核的宽度和长度;
    卷积的步长;
    padding;
    激活函数,我的理解这个与卷积层,池化层不相关;
    膨胀比例,我比较少遇到使用这个参数的例子;
    是否使用偏置项;
    核权值初始化方法;
    偏置初始化方法;
    施加在权重上的正则项;
    施加在偏置向量上的正则项;
    施加在输出上的正则项;
    施加在权重上的约束项;
    施加在偏置上的约束项.

    作者回复: 差不多就是这些,卷积核的大小和数目要根据实际任务去碰。

    2018-02-13
    1
  • 林彦
    今天这篇文章有很多不错的形象直观的比喻,很有助于理解和记忆。

    如卷积核的作用比作菜谱;参数共享性中的直线;相似性中的直角;池化层是对最大值的提取与旋转不变性的关联。
    2018-02-13
    1
收起评论
4
返回
顶部