人工智能基础课
王天一
工学博士,副教授
立即订阅
12221 人已学习
课程目录
已完结 58 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 人工智能:新时代的必修课
免费
数学基础 (7讲)
01 数学基础 | 九层之台,起于累土:线性代数
02 数学基础 | 月有阴晴圆缺,此事古难全:概率论
03 数学基础 | 窥一斑而知全豹:数理统计
04 数学基础 | 不畏浮云遮望眼:最优化方法
05 数学基础 | 万物皆数,信息亦然:信息论
06 数学基础 | 明日黄花迹难寻:形式逻辑
(课外辅导)数学基础 | 拓展阅读参考书
机器学习 (10讲)
07 机器学习 | 数山有路,学海无涯:机器学习概论
08 机器学习 | 简约而不简单:线性回归
09 机器学习 | 大道至简:朴素贝叶斯方法
10 机器学习 | 衍化至繁:逻辑回归
11 机器学习 | 步步为营,有章可循:决策树
12 机器学习 | 穷则变,变则通:支持向量机
13 机器学习 | 三个臭皮匠,赛过诸葛亮:集成学习
14 机器学习 | 物以类聚,人以群分:聚类分析
15 机器学习 | 好钢用在刀刃上:降维学习
(课外辅导)机器学习 | 拓展阅读参考书
人工神经网络 (7讲)
16 人工神经网络 | 道法自然,久藏玄冥:神经网络的生理学背景
17 人工神经网络 | 一个青年才俊的意外死亡:神经元与感知器
18 人工神经网络 | 左手信号,右手误差:多层感知器
19 人工神经网络 | 各人自扫门前雪:径向基函数神经网络
20 人工神经网络 | 看不见的手:自组织特征映射
21 人工神经网络 | 水无至清,人莫至察:模糊神经网络
(课外辅导)人工神经网络 | 拓展阅读参考书
深度学习 (7讲)
22 深度学习 | 空山鸣响,静水流深:深度学习概述
23 深度学习 | 前方有路,未来可期:深度前馈网络
24 深度学习 | 小树不修不直溜:深度学习中的正则化
25 深度学习 | 玉不琢不成器:深度学习中的优化
26 深度学习 | 空竹里的秘密:自编码器
27 深度学习 | 困知勉行者勇:深度强化学习
(课外辅导)深度学习 | 拓展阅读参考书
深度学习框架下的神经网络 (5讲)
28 深度学习框架下的神经网络 | 枯木逢春:深度信念网络
29 深度学习框架下的神经网络 | 见微知著:卷积神经网络
30 深度学习框架下的神经网络 | 昨日重现:循环神经网络
31 深度学习框架下的神经网络 | 左右互搏:生成式对抗网络
32 深度学习框架下的神经网络 | 三重门:长短期记忆网络
深度学习之外的人工智能 (4讲)
33 深度学习之外的人工智能 | 一图胜千言:概率图模型
34 深度学习之外的人工智能 | 乌合之众的逆袭:集群智能
35 深度学习之外的人工智能 | 授人以鱼不如授人以渔:迁移学习
36 深度学习之外的人工智能 | 滴水藏海:知识图谱
应用场景 (4讲)
37 应用场景 | 你是我的眼:计算机视觉
38 应用场景 | 嘿, Siri:语音处理
39 应用场景 | 心有灵犀一点通:对话系统
40 应用场景 | 数字巴别塔:机器翻译
加餐 (5讲)
课外谈 | “人工智能基础课”之二三闲话
推荐阅读 | 我与人工智能的故事
直播回顾 | 机器学习必备的数学基础
第2季回归 | 这次我们来聊聊机器学习
新书 | 《裂变:秒懂人工智能的基础课》
复习课 (7讲)
一键到达 | 数学基础复习课
一键到达 | 机器学习复习课
一键到达 | 人工神经网络复习课
一键到达 | 深度学习复习课
一键到达 | 深度学习框架下的神经网络复习课
一键到达 | 深度学习之外的人工智能复习课
一键到达 | 应用场景复习课
结束语 (1讲)
结课 | 溯洄从之,道阻且长
人工智能基础课
登录|注册

02 数学基础 | 月有阴晴圆缺,此事古难全:概率论

王天一 2017-12-12
除了线性代数之外,概率论(probability theory)也是人工智能研究中必备的数学基础。随着连接主义学派的兴起,概率统计已经取代了数理逻辑,成为人工智能研究的主流工具。在数据爆炸式增长和计算力指数化增强的今天,概率论已经在机器学习中扮演了核心角色。
同线性代数一样,概率论也代表了一种看待世界的方式,其关注的焦点是无处不在的可能性。对随机事件发生的可能性进行规范的数学描述就是概率论的公理化过程。概率的公理化结构体现出的是对概率本质的一种认识。
将同一枚硬币抛掷 10 次,其正面朝上的次数既可能一次没有,也可能全部都是,换算成频率就分别对应着 0% 和 100%。频率本身显然会随机波动,但随着重复试验的次数不断增加,特定事件出现的频率值就会呈现出稳定性,逐渐趋近于某个常数。
从事件发生的频率认识概率的方法被称为“频率学派”(frequentist probability),频率学派口中的“概率”,其实是一个可独立重复的随机实验中单个结果出现频率的极限。因为稳定的频率是统计规律性的体现,因而通过大量的独立重复试验计算频率,并用它来表征事件发生的可能性是一种合理的思路。
在概率的定量计算上,频率学派依赖的基础是古典概率模型。在古典概率模型中,试验的结果只包含有限个基本事件,且每个基本事件发生的可能性相同。如此一来,假设所有基本事件的数目为 n,待观察的随机事件 A 中包含的基本事件数目为 k,则古典概率模型下事件概率的计算公式为
从这一基本公式就可以推导出复杂的随机事件的概率。
前文中的概率定义针对都是单个随机事件,可如果要刻画两个随机事件之间的关系,这个定义就不够看了。在一场足球比赛中,球队 1:0 取胜和在 0:2 落后的情况下 3:2 翻盘的概率显然是不一样的。这就需要引入条件概率的概念。
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《人工智能基础课》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(33)

  • 王天一 置顶
    @Karl 一个优等生和一个差生打架,老师肯定认为是差生的错,因为差生爱惹事,这就是最大似然估计;可如果老师知道优生和差生之间原本就有过节(先验信息),把这个因素考虑进来,就不会简单地认为是差生挑衅,这就是最大后验估计。
    两种方式分别对应不同的机器学习算法,具体应用在机器学习模块中分别有介绍。
    2017-12-13
    97
  • 王天一 置顶
    @yy 基础部分主要是引入概念,在后续的算法介绍中会涉及概念与方法的具体应用
    2017-12-12
    13
  • Karl
    我数学基础不太好,老师讲的虽然能基本看懂,但就只是停留在理论层面,无法联系到实际情况中。希望老师能多加一些现实世界中的实例,来对理论加以说明。比如讲到,“在贝叶斯学派眼中,概率描述的是随机事件的可信程度。如果手机里的天气预报应用给出明天下雨的概率是 85%,这就不能从频率的角度来解释了,而是意味着明天下雨这个事件的可信度是 85%”,像有类似于“明天降水概率为 85%”这样的实例时,我一下就明白了。再比如老师讲到:“最大似然估计法的思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就最符合训练数据的分布”,这句话对我来说理解起来就很困难,如果老师能再举一例,如结合AlphaGo的原理等,就会很容易理解了。
    2017-12-13
    15
  • 王天一
    @奋斗达人 这是一个贝叶斯定理应用的经典问题:有一种病在人群中的患病率是1%,其检查结果的可靠程度是95%,也就是得病的人95%会得到阳性结果,没得病的人95%会得到阴性结果。如果一个人检查的结果是阳性,那他得病的概率是多少?
    用贝叶斯定理解决这个问题,得到的结果会出乎意料。
    2017-12-14
    14
  • 吴文敏
    极大似然是寻找一组参数使得观测数据出现的概率最大,最大后验是寻找当前观测数据下出现概率最大的一组参数。王老师的这个解释十分透彻:)
    2017-12-29
    10
  • 小牛人
    得病的概率是16.1%

    作者回复: Bingo

    2018-05-25
    6
  • 漫漫越
    患病概率:(0.95*0.01)/(0.95*0.01+0.05*0.99)=16.1%

    作者回复: 完全正确!

    2019-03-14
    5
  • wolfog
    想问下天一老师,明天下雨的概率是85%那一段说贝叶斯学派认为概率是随机事件的可靠度。而频率学派则无法从频率的角度解释。我想问问频率学派无法解释的原因是下面的解释吗?
    频率学派认为概率是随机事件在次数增多时频率的一个趋近值,而很显然明天下雨这个事件无法重复多次,所以频率学派的关于概率的定义明显就无法再这里定义。
    感谢天一老师

    作者回复: 没错,这是一锤子买卖的事情

    2018-01-13
    5
  • 刘祯
    概率论从直觉上比线性代数容易理解,可还是要花时间去琢磨。

    思考题我有几个想法:

    1、产品中最常见的就是电商系统的推荐,亚马逊在一方面很早就开始实践,根据你已经买过的东西的信息来判断购买其他商品的可能性;

    2、垃圾邮件过滤器,给定一封邮件,它是垃圾邮件的可能性是多大。机器甄别可能用处更大

    3、第三就是拼写纠错与语义分词。

    这几个方面是我结合实践生活和学习想到的,要真正将问题转化成模型与数学语言真的好难。

    作者回复: 没错,最常见的例子就是文本分类。建模确实难度很大,而且没有通用的规则,使用哪些工具需要具体情况具体分析。

    2017-12-27
    4
  • yy
    希望关于数学基础的部分,描述一下在人工智能领域使用比较频繁,或者比较重要的部分。如果是一位数学基础不好的听众。可能更想知道如何去学习这一方面的知识。
    2017-12-12
    4
  • 快乐松鼠蹦蹦跳
    @奋斗达人 这是一个贝叶斯定理应用的经典问题:有一种病在人群中的患病率是1%,其检查结果的可靠程度是95%,也就是得病的人95%会得到阳性结果,没得病的人95%会得到阴性结果。如果一个人检查的结果是阳性,那他得病的概率是多少?
    用贝叶斯定理解决这个问题,得到的结果会出乎意料。

    记得这样的题目,概率论学过,人工智能学过,但是总的都是模棱两可。现在学了这么多年,终于知道自己模糊的地方住在哪里了。套用贝叶斯公式求解,结果是0.1610

    作者回复: Bingo

    2018-06-05
    3
  • 奋斗达人
    对于基础薄弱或零基础人员,贝叶斯原理足够望而生畏。建议在基础知识的篇尾给出一两个带解答的范题,最后给出一两个习题。只学习没有考察无法衡量学习的成果。
    2017-12-13
    3
  • 野山门
    很有收获。但后面的有些公式有点烧脑。如果能有更多例子,更加细化推理过程就更好了。主要是很多年以前学的概率等全部忘记了。:)
    2017-12-12
    3
  • 凡拾
    思考题的理解—根据欺诈的结果推算哪种因素符合会最大概率出现欺诈,这算不算贝叶斯?2.在估计参数时,最大似然估计法只需要使用训练数据,最大后验概率法除了数据外还需要额外的信息,就是贝叶斯公式中的先验概率。为什么要额外信息不理解

    作者回复: 因为最大似然假定待估计的参数是固定的,估计的准确与否取决于数据;最大后验则认为参数也是随机变量,有自己的先验分布。这就是额外的信息,因为数据本身体现不出参数的先验特性。

    2018-03-22
    2
  • Andy
    在推荐系统中应该可以用到,某一个产品的购买信息可以被商家获取,那么商家可以对用户分类,用先验来计算此产品被某类用户购买的概率,当遇到新客户的时候就可以用贝叶斯公式来求解此客户买此产品的概率,进而依照概率来判断是否做推荐
    2017-12-12
    2
  • 哈哼
    打架那个例子,清新脱俗呀
    2019-04-06
    1
  • 秋应
    犯罪现场调查,应该就是从既得结果去推测犯罪过程吧。
    2018-05-25
    1
  • yunfeng
    王老师,离散随机变量中的二项分布选取发生事件应该是从事件总数n中有k次发生的概率,应该是Cnk而非Ckn。

    作者回复: 我查了下,国内教材通行的写法是k上n下,一些国外教材的写法是n上k下。其实只要明确两者的大小关系就清楚了,最清晰的写法还是括号形式的上n下k。

    2018-03-13
    1
  • fang
    二项分布Ckn kn 上下位置是否写反了

    作者回复: 我查了下,国内教材通行的写法是k上n下,一些国外教材的写法是n上k下。其实只要明确两者的大小关系就清楚了,最清晰的写法还是括号形式的上n下k。

    2018-03-12
    1
  • xavieryin
    通俗易懂 谢谢老师
    2017-12-12
    1
收起评论
33
返回
顶部