人工智能基础课
王天一
工学博士,副教授
立即订阅
12212 人已学习
课程目录
已完结 58 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 人工智能:新时代的必修课
免费
数学基础 (7讲)
01 数学基础 | 九层之台,起于累土:线性代数
02 数学基础 | 月有阴晴圆缺,此事古难全:概率论
03 数学基础 | 窥一斑而知全豹:数理统计
04 数学基础 | 不畏浮云遮望眼:最优化方法
05 数学基础 | 万物皆数,信息亦然:信息论
06 数学基础 | 明日黄花迹难寻:形式逻辑
(课外辅导)数学基础 | 拓展阅读参考书
机器学习 (10讲)
07 机器学习 | 数山有路,学海无涯:机器学习概论
08 机器学习 | 简约而不简单:线性回归
09 机器学习 | 大道至简:朴素贝叶斯方法
10 机器学习 | 衍化至繁:逻辑回归
11 机器学习 | 步步为营,有章可循:决策树
12 机器学习 | 穷则变,变则通:支持向量机
13 机器学习 | 三个臭皮匠,赛过诸葛亮:集成学习
14 机器学习 | 物以类聚,人以群分:聚类分析
15 机器学习 | 好钢用在刀刃上:降维学习
(课外辅导)机器学习 | 拓展阅读参考书
人工神经网络 (7讲)
16 人工神经网络 | 道法自然,久藏玄冥:神经网络的生理学背景
17 人工神经网络 | 一个青年才俊的意外死亡:神经元与感知器
18 人工神经网络 | 左手信号,右手误差:多层感知器
19 人工神经网络 | 各人自扫门前雪:径向基函数神经网络
20 人工神经网络 | 看不见的手:自组织特征映射
21 人工神经网络 | 水无至清,人莫至察:模糊神经网络
(课外辅导)人工神经网络 | 拓展阅读参考书
深度学习 (7讲)
22 深度学习 | 空山鸣响,静水流深:深度学习概述
23 深度学习 | 前方有路,未来可期:深度前馈网络
24 深度学习 | 小树不修不直溜:深度学习中的正则化
25 深度学习 | 玉不琢不成器:深度学习中的优化
26 深度学习 | 空竹里的秘密:自编码器
27 深度学习 | 困知勉行者勇:深度强化学习
(课外辅导)深度学习 | 拓展阅读参考书
深度学习框架下的神经网络 (5讲)
28 深度学习框架下的神经网络 | 枯木逢春:深度信念网络
29 深度学习框架下的神经网络 | 见微知著:卷积神经网络
30 深度学习框架下的神经网络 | 昨日重现:循环神经网络
31 深度学习框架下的神经网络 | 左右互搏:生成式对抗网络
32 深度学习框架下的神经网络 | 三重门:长短期记忆网络
深度学习之外的人工智能 (4讲)
33 深度学习之外的人工智能 | 一图胜千言:概率图模型
34 深度学习之外的人工智能 | 乌合之众的逆袭:集群智能
35 深度学习之外的人工智能 | 授人以鱼不如授人以渔:迁移学习
36 深度学习之外的人工智能 | 滴水藏海:知识图谱
应用场景 (4讲)
37 应用场景 | 你是我的眼:计算机视觉
38 应用场景 | 嘿, Siri:语音处理
39 应用场景 | 心有灵犀一点通:对话系统
40 应用场景 | 数字巴别塔:机器翻译
加餐 (5讲)
课外谈 | “人工智能基础课”之二三闲话
推荐阅读 | 我与人工智能的故事
直播回顾 | 机器学习必备的数学基础
第2季回归 | 这次我们来聊聊机器学习
新书 | 《裂变:秒懂人工智能的基础课》
复习课 (7讲)
一键到达 | 数学基础复习课
一键到达 | 机器学习复习课
一键到达 | 人工神经网络复习课
一键到达 | 深度学习复习课
一键到达 | 深度学习框架下的神经网络复习课
一键到达 | 深度学习之外的人工智能复习课
一键到达 | 应用场景复习课
结束语 (1讲)
结课 | 溯洄从之,道阻且长
人工智能基础课
登录|注册

09 机器学习 | 大道至简:朴素贝叶斯方法

王天一 2017-12-28
周二我和你分享了机器学习中的线性回归算法,这一算法解决的是从连续取值的输入映射为连续取值的输出的回归问题。今天我分享的算法则用于解决分类问题,即将连续取值的输入映射为离散取值的输出,算法的名字叫作“朴素贝叶斯方法”。
解决分类问题的依据是数据的属性。朴素贝叶斯分类器假定样本的不同属性满足条件独立性假设,并在此基础上应用贝叶斯定理执行分类任务。其基本思想在于分析待分类样本出现在每个输出类别中的后验概率,并以取得最大后验概率的类别作为分类的输出
假设训练数据的属性由 n 维随机向量 表示,其分类结果用随机变量 y 表示,那么 x 和 y 的统计规律就可以用联合概率分布 描述,每一个具体的样本 都可以通过 独立同分布地产生。
朴素贝叶斯分类器的出发点就是这个联合概率分布,根据条件概率的性质可以得到
在上式中,P(Y) 代表着每个类别出现的概率,也就是类先验概率;P(X|Y) 代表着在给定的类别下不同属性出现的概率,也就是类似然概率
先验概率容易根据训练数据计算出来,只需要统计不同类别样本的数目即可。而似然概率受属性取值数目的影响,其估计较为困难。
如果每个样本包含 100 个属性,每个属性的取值都可能有 100 种,那么对分类的每个结果,要计算的条件概率数目就是 。在这么多参数的情况下,对似然概率的精确估计就需要庞大的数据量。
要解决似然概率难以估计的问题,就需要“条件独立性假设”登台亮相。条件独立性假设保证了所有属性相互独立,互不影响,每个属性独立地对分类结果发生作用这样类条件概率就变成了属性条件概率的乘积,在数学公式上可以体现为
这正是朴素贝叶斯方法的“朴素”之处,通过必要的假设来简化计算,并回归问题的本质
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《人工智能基础课》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(13)

  • 王杰
    讲的简洁易懂,回家途中看完了!一个问题:如果样本先降维去除属性相关性再用朴素贝叶斯分类,效果是不是就很好?

    作者回复: 原则上是会取得良好效果,但应用在实际问题中还要看真实表现。

    2018-01-30
    7
  • 大佬,能有简单的项目或习题,让我们实践下不?
    2017-12-29
    7
  • 七月
    可以用对数吗
    2017-12-30
    3
  • 秦龙君
    学习了。我想问老师一个问题,所有文章更新完了,有集结出书的计划吗?我感觉平时看完后,再用书重新看一遍,效果更好。

    池建强回复: 会出的

    2017-12-29
    2
  • 杜浩
    朴素贝叶斯为什么是期望风险最小化的 这点还是不太理解

    作者回复: 后验概率最大化意味着把实例划分到最可能的类中,使分类的错误概率最小,也就是期望风险最小。

    2018-02-28
    1
  • 吴文敏
    如果每个样本包含 100 个属性,每个属性的取值都可能有 100 种,那么对分类的每个结果,要计算的条件概率数目就是 100^2=10000 感觉这里应该是100^100

    作者回复: 没错,应该是每个属性的取值都有2种。

    2018-02-22
    1
  • 吴凌华
    条件独立性,本身就是思维模式的问题,可能常识并不正确
    2019-10-30
  • 胖胖胖
    概率取对数,把连乘变成连加
    2019-07-04
  • 隔壁老任
    老师你好,请教俩问题,1.第一段有句话有点懵,朴素贝叶斯是 将连续输入转化为离散输出么?我目前简单的,感觉都是离散输入到离散输出,属性的取值也多是离散的,如果是连续的,数量就太大了
    2.同最后一个问题,因为朴素贝叶斯是用的后验概率相乘,貌似训练一次后,参数就不会变了?后续的的参数更新一般用什么方法呢?
    谢谢

    作者回复: 1. 这句话的本义是将输入数据转化成分类结果,和回归问题形成对比。连续属性也是可以处理的,但需要离散化的过程,也能直接计算。
    2. 这些传统方法不像深度学习,需要一轮一轮地训练。一波数据过来,参数就确定了,要更新就得用新的数据。

    2018-11-08
  • wdf
    老师如果朴素贝叶斯算法,只在乎分类是否正确。是否他给出的概率值就参考意义不大?如果给出是正立的,赵军,只有一个是0.9,一个是0.6是不是很难说,是有区别的。

    作者回复: 后验概率归一化之后和应该为1,那么0.9和0.6就应该是0.6和0.4。即使不归一化,更大的0.9也说明这个样本更像正例。

    2018-09-22
  • 夏震华(围巾)
    在使用高维数据集时,每个样本都会包含大量的属性,这时属性条件概率连乘的结果会非常接近于零,导致下溢的发生。如何防止因概率过小造成的下溢呢?
    都乘个100,放大了,然后到了后面在统一除去?如何

    作者回复: 这可以看成取概率对数的特例

    2018-03-26
  • 啊哈哈
    根据训练数据计算后验概率,基于后验概率选择最佳决策。
    2018-03-02
  • Andy
    王老师您好,感觉朴素贝叶斯不像逻辑回归那样有个loss func 可以做权重的学习,那么朴素贝叶斯训练好的模型怎么才能持久化呢?

    作者回复: 其实朴素贝叶斯也是有损失函数的,它的损失函数就是分类错误数的数学期望,让这个函数最小化和后验概率最大化是等价的,因而算法本身就暗含了最优化的过程。

    2018-01-16
收起评论
13
返回
顶部