人工智能基础课
王天一
工学博士,副教授
立即订阅
12221 人已学习
课程目录
已完结 58 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 人工智能:新时代的必修课
免费
数学基础 (7讲)
01 数学基础 | 九层之台,起于累土:线性代数
02 数学基础 | 月有阴晴圆缺,此事古难全:概率论
03 数学基础 | 窥一斑而知全豹:数理统计
04 数学基础 | 不畏浮云遮望眼:最优化方法
05 数学基础 | 万物皆数,信息亦然:信息论
06 数学基础 | 明日黄花迹难寻:形式逻辑
(课外辅导)数学基础 | 拓展阅读参考书
机器学习 (10讲)
07 机器学习 | 数山有路,学海无涯:机器学习概论
08 机器学习 | 简约而不简单:线性回归
09 机器学习 | 大道至简:朴素贝叶斯方法
10 机器学习 | 衍化至繁:逻辑回归
11 机器学习 | 步步为营,有章可循:决策树
12 机器学习 | 穷则变,变则通:支持向量机
13 机器学习 | 三个臭皮匠,赛过诸葛亮:集成学习
14 机器学习 | 物以类聚,人以群分:聚类分析
15 机器学习 | 好钢用在刀刃上:降维学习
(课外辅导)机器学习 | 拓展阅读参考书
人工神经网络 (7讲)
16 人工神经网络 | 道法自然,久藏玄冥:神经网络的生理学背景
17 人工神经网络 | 一个青年才俊的意外死亡:神经元与感知器
18 人工神经网络 | 左手信号,右手误差:多层感知器
19 人工神经网络 | 各人自扫门前雪:径向基函数神经网络
20 人工神经网络 | 看不见的手:自组织特征映射
21 人工神经网络 | 水无至清,人莫至察:模糊神经网络
(课外辅导)人工神经网络 | 拓展阅读参考书
深度学习 (7讲)
22 深度学习 | 空山鸣响,静水流深:深度学习概述
23 深度学习 | 前方有路,未来可期:深度前馈网络
24 深度学习 | 小树不修不直溜:深度学习中的正则化
25 深度学习 | 玉不琢不成器:深度学习中的优化
26 深度学习 | 空竹里的秘密:自编码器
27 深度学习 | 困知勉行者勇:深度强化学习
(课外辅导)深度学习 | 拓展阅读参考书
深度学习框架下的神经网络 (5讲)
28 深度学习框架下的神经网络 | 枯木逢春:深度信念网络
29 深度学习框架下的神经网络 | 见微知著:卷积神经网络
30 深度学习框架下的神经网络 | 昨日重现:循环神经网络
31 深度学习框架下的神经网络 | 左右互搏:生成式对抗网络
32 深度学习框架下的神经网络 | 三重门:长短期记忆网络
深度学习之外的人工智能 (4讲)
33 深度学习之外的人工智能 | 一图胜千言:概率图模型
34 深度学习之外的人工智能 | 乌合之众的逆袭:集群智能
35 深度学习之外的人工智能 | 授人以鱼不如授人以渔:迁移学习
36 深度学习之外的人工智能 | 滴水藏海:知识图谱
应用场景 (4讲)
37 应用场景 | 你是我的眼:计算机视觉
38 应用场景 | 嘿, Siri:语音处理
39 应用场景 | 心有灵犀一点通:对话系统
40 应用场景 | 数字巴别塔:机器翻译
加餐 (5讲)
课外谈 | “人工智能基础课”之二三闲话
推荐阅读 | 我与人工智能的故事
直播回顾 | 机器学习必备的数学基础
第2季回归 | 这次我们来聊聊机器学习
新书 | 《裂变:秒懂人工智能的基础课》
复习课 (7讲)
一键到达 | 数学基础复习课
一键到达 | 机器学习复习课
一键到达 | 人工神经网络复习课
一键到达 | 深度学习复习课
一键到达 | 深度学习框架下的神经网络复习课
一键到达 | 深度学习之外的人工智能复习课
一键到达 | 应用场景复习课
结束语 (1讲)
结课 | 溯洄从之,道阻且长
人工智能基础课
登录|注册

10 机器学习 | 衍化至繁:逻辑回归

王天一 2017-12-30
周四我和你分享了机器学习中的朴素贝叶斯分类算法,这一算法解决的是将连续取值的输入映射为离散取值的输出的分类问题。朴素贝叶斯分类器是一类生成模型,通过构造联合概率分布 实现分类。如果换一种思路,转而用判别模型解决分类问题的话,得到的算法就是“逻辑回归”。
虽然顶着“回归”的名号,但逻辑回归解决的却是实打实的分类问题。之所以取了这个名字,原因在于它来源于对线性回归算法的改进。通过引入单调可微函数 ,线性回归模型就可以推广为 ,进而将线性回归模型的连续预测值与分类任务的离散标记联系起来。当 取成对数函数的形式时,线性回归就演变为了逻辑回归。
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《人工智能基础课》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(13)

  • dianxin556
    王老师,请问似然概率和后验概率的区别和联系?能否举例说明?谢谢!

    作者回复: 似然概率是由假设正推结果,后验概率是由结果倒推假设。
    假如一种产品由不同的工厂ABC生产,每个工厂都有自己的次品率,那么A厂生产的产品占产品总数的比例就是先验概率,A厂自己的次品率就是似然概率。
    在一堆产品中抽出一件,检验发现是次品,那这件次品可能来源于ABC中任意的一个厂。已知产品是次品,推断这件次品来自A厂的概率,这就是后验概率。

    2018-01-24
    9
  • 井中月
    王老师,按文章最后一段所说,当一个样本同时属于多个类别时,是不是有几个类别就建立几个二分类模型,这样效率比较高?但是我曾经遇到过一个类似的问题,当时没有解决,想跟您请教。每个样本属于多个类别,这些类别加起来一共有将近400种,而且绝大多数类别都是严重不平衡的。这种情况下如果一个一个的建立模型是不是效率很低?这是一个文本分类的问题,文本是餐厅评论数据,类别是人工标注的评论主题。这些类别其实是可以合并的,但是合并之后意义不大。您怎么看这种情况?

    作者回复: 抛开问题不说,做多分类两种思路:一是所有类别两两配对,就是1v2, 1v3,...,1vN,2v3,2v4,...2vN,3v4,...依此类推;二是每个类别和其他所有类别配对,就是1v其他,2v其他,…Nv其他。第一种模型多,每个模型需要的数据少,第二种相反。
    具体到你的问题,我觉得类别太多了,尤其是数据有限时,给500个数据分400个类是没有价值的。所以我认为应该先对类别做优化,当然,能不能行的通还要看实际情况。

    2018-03-07
    2
  • 叶秋
    可否推导一下逻辑回归的条件概率的推导过程

    作者回复: 在这里没法打出公式,你可以参考维基百科上逻辑回归的页面,或是推荐书目中周老师和李老师教材的相关章节。

    2018-03-27
    1
  • Jean
    问下逻辑回归中的“逻辑”是什么意思,为什么叫逻辑,是怎么来的?

    作者回复: 逻辑是logistic的音译,logistic函数就是文章里的sigmoid函数,也就是S曲线。

    2018-03-01
    1
  • MJ小朋友
    我好像发现了两个无伤大雅的错误,
    S型函数b好像漏了,后面推导有了,又没了
    对数似然函数应该取自然对数,不然没底数不行

    作者回复: 感谢你的火眼金睛,这两个问题都是符号没有统一造成的。
    第一个,没有常项b是因为把它看成w的一个分量w_0,并让它和另一个常数x_0=1相乘,但是推导时候这样写又不方便,所以就把b拿出来了;
    第二个是个习惯问题,这要归咎于平时书写并不规范,不写底数的log就默认是ln运算。在文章中,所有的运算全是自然对数运算。

    2018-01-05
    1
  • 小老鼠
    各位是不是都是数学系毕业的,好难懂
    2019-01-17
  • 历尽千帆
    王老师,您好。我没有明白“对数似然函数的最大化可以等效为待求模型与最大熵模型之间 KL散度的最小化。这意味着最优的估计对参数做出的额外假设是最少的”这句话,您可否再解释下?
    2018-12-29
  • jkhcw
    逻辑回归在高纬模型下就是超平面
    2018-12-16
  • 阿里-赤壁(羊宏飞)
    王老师这个课 我认为是 机器学习入门者 非常好的 图谱 ,其中一些知识点还是要结合书本和实战。问题的讨论 知乎上回答的也非常详尽
    2018-06-01
  • 星运里的错
    老师。我发现很多概念当时明白,过后就忘了,您是推荐从实战例子中去加深理解,还是反复的去看概念,知道看懂

    作者回复: 我认为结合起来才有效果,想办法理解例子是如何应用概念的。

    2018-05-19
  • 井中月
    好的,谢谢老师
    2018-03-15
  • 井中月
    谢谢您的回复。我当时设想的是第二种思路,每个类和其他所有类配对。当时的数据量是50多万条。按您的经验来说,一般做分类问题,类别控制在多少个容易取得较好的效果呢?

    作者回复: 这是取决于具体问题的,建议你也把类别数量作为一个变量试一试,看看类别多少时效果比较好。

    2018-03-11
  • Andy
    王老师您好,在逻辑回归中,代价函数为什么选用交叉熵代价函数,而不是选用最小二乘代价函数呢?

    作者回复: 不要被名字欺骗,逻辑回归的输出是离散值哟,离散变量用最小二乘就没意义了。

    2018-01-05
收起评论
13
返回
顶部