人工智能基础课
王天一
工学博士,副教授
立即订阅
12221 人已学习
课程目录
已完结 58 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 人工智能:新时代的必修课
免费
数学基础 (7讲)
01 数学基础 | 九层之台,起于累土:线性代数
02 数学基础 | 月有阴晴圆缺,此事古难全:概率论
03 数学基础 | 窥一斑而知全豹:数理统计
04 数学基础 | 不畏浮云遮望眼:最优化方法
05 数学基础 | 万物皆数,信息亦然:信息论
06 数学基础 | 明日黄花迹难寻:形式逻辑
(课外辅导)数学基础 | 拓展阅读参考书
机器学习 (10讲)
07 机器学习 | 数山有路,学海无涯:机器学习概论
08 机器学习 | 简约而不简单:线性回归
09 机器学习 | 大道至简:朴素贝叶斯方法
10 机器学习 | 衍化至繁:逻辑回归
11 机器学习 | 步步为营,有章可循:决策树
12 机器学习 | 穷则变,变则通:支持向量机
13 机器学习 | 三个臭皮匠,赛过诸葛亮:集成学习
14 机器学习 | 物以类聚,人以群分:聚类分析
15 机器学习 | 好钢用在刀刃上:降维学习
(课外辅导)机器学习 | 拓展阅读参考书
人工神经网络 (7讲)
16 人工神经网络 | 道法自然,久藏玄冥:神经网络的生理学背景
17 人工神经网络 | 一个青年才俊的意外死亡:神经元与感知器
18 人工神经网络 | 左手信号,右手误差:多层感知器
19 人工神经网络 | 各人自扫门前雪:径向基函数神经网络
20 人工神经网络 | 看不见的手:自组织特征映射
21 人工神经网络 | 水无至清,人莫至察:模糊神经网络
(课外辅导)人工神经网络 | 拓展阅读参考书
深度学习 (7讲)
22 深度学习 | 空山鸣响,静水流深:深度学习概述
23 深度学习 | 前方有路,未来可期:深度前馈网络
24 深度学习 | 小树不修不直溜:深度学习中的正则化
25 深度学习 | 玉不琢不成器:深度学习中的优化
26 深度学习 | 空竹里的秘密:自编码器
27 深度学习 | 困知勉行者勇:深度强化学习
(课外辅导)深度学习 | 拓展阅读参考书
深度学习框架下的神经网络 (5讲)
28 深度学习框架下的神经网络 | 枯木逢春:深度信念网络
29 深度学习框架下的神经网络 | 见微知著:卷积神经网络
30 深度学习框架下的神经网络 | 昨日重现:循环神经网络
31 深度学习框架下的神经网络 | 左右互搏:生成式对抗网络
32 深度学习框架下的神经网络 | 三重门:长短期记忆网络
深度学习之外的人工智能 (4讲)
33 深度学习之外的人工智能 | 一图胜千言:概率图模型
34 深度学习之外的人工智能 | 乌合之众的逆袭:集群智能
35 深度学习之外的人工智能 | 授人以鱼不如授人以渔:迁移学习
36 深度学习之外的人工智能 | 滴水藏海:知识图谱
应用场景 (4讲)
37 应用场景 | 你是我的眼:计算机视觉
38 应用场景 | 嘿, Siri:语音处理
39 应用场景 | 心有灵犀一点通:对话系统
40 应用场景 | 数字巴别塔:机器翻译
加餐 (5讲)
课外谈 | “人工智能基础课”之二三闲话
推荐阅读 | 我与人工智能的故事
直播回顾 | 机器学习必备的数学基础
第2季回归 | 这次我们来聊聊机器学习
新书 | 《裂变:秒懂人工智能的基础课》
复习课 (7讲)
一键到达 | 数学基础复习课
一键到达 | 机器学习复习课
一键到达 | 人工神经网络复习课
一键到达 | 深度学习复习课
一键到达 | 深度学习框架下的神经网络复习课
一键到达 | 深度学习之外的人工智能复习课
一键到达 | 应用场景复习课
结束语 (1讲)
结课 | 溯洄从之,道阻且长
人工智能基础课
登录|注册

06 数学基础 | 明日黄花迹难寻:形式逻辑

王天一 2017-12-21
1956 年召开的达特茅斯会议宣告了人工智能的诞生。在人工智能的襁褓期,各位奠基者们,包括约翰·麦卡锡、赫伯特·西蒙、马文·明斯基等未来的图灵奖得主,他们的愿景是让“具备抽象思考能力的程序解释合成的物质如何能够拥有人类的心智”。
通俗地说,理想的人工智能应该具备抽象意义上的学习、推理与归纳能力,其通用性将远远强于解决国际象棋或是围棋这些具体问题的算法。
要实现这样的人工智能,不可或缺的基础是形式逻辑。人工智能的早期研究者认为人类认知和思维的基本单元是符号,而认知过程就是对符号的逻辑运算,这样一来,人类抽象的逻辑思维就可以通过计算机中逻辑门的运算模拟,进而实现机械化的人类认知。
反过来,形式逻辑也是智能行为的描述方式,任何能够将某些物理模式或符号转化成其他模式或符号的系统都有可能产生智能的行为,也就是人工智能。
人工智能能够模拟智能行为的基础是具有知识,但知识本身也是抽象的概念,需要用计算机能够理解的方式表示出来。
在人工智能中,常用的知识表示方法包括数据结构和处理算法。数据结构用于静态存储待解决的问题、问题的中间解答、问题的最终解答以及解答中涉及的知识;处理算法则用于在已有问题和知识之间进行动态交互,两者共同构成完整的知识表示体系
在人工智能的研究中,用形式逻辑实现知识表示是一种普遍的方法。形式逻辑可谓包罗万象,其最简单的实例就是由古希腊哲学家亚里士多德提出并流传至今的三段论,它由两个前提和一个结论构成:
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《人工智能基础课》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(9)

  • 刘祯
    感谢老师对形式逻辑详尽的解读,今天的核心就是对人类智能与人工智能的讨论,内容还是很烧脑。认知这个词在人类和机器领域有不同的作用,我对这句话印象深刻“认知的本质是计算”,其中有太多的解释与门道了,不可一概而论。

    看完了专栏数学基础的部分,有几点想法和老师交流下:

    1)专栏的定位是通俗易懂的人工智能基础课,这一方面老师做得很出色,每一块知识都十分详尽,可对于初学者还是有些难以理解,特别是每篇文章都是不同的数学知识,理解和学习起来有一定难度,是否可以在解释概念与术语时添加更多贴近生活的类比?

    2)每篇文章结构很完整,增加序号用来概括每一部分的内容会更好,三千字以上的文章在屏读时代可以尽量减少读者的阅读压力;

    3)每一部分的数学基础在最后其实可以增加更多趣味性材料或是补充资料可供学习,如果课后的思考问题结合数学知识的生活应用就更好了,这样留言与互动会更丰富,仅从专业问题回答上,我们可能真的不知道如何表达了。

    以上,仅供参考。感谢各位的付出。

    作者回复: 谢谢你的建议,你所提到的一些问题正是计划中下一步的改进方向。

    之前和专栏编辑聊天时还提到:对复杂的问题摆一大堆公式很容易,但深入浅出地解释思想就要难得多了。

    每篇文章我都尽可能地少用公式,也会举一些贴近生活的实例。但数学毕竟是高度抽象的学科,想要完全做成讲故事的形式难度非常高,而且如果例子举的不当还可能产生误解,所以更加通俗的讲法也还在摸索之中。我想这可能也是理工类学科难以登上《百家讲坛》这类节目的原因吧。

    每篇文章后面的问题其实都是开放的,大部分也是我自己思考的问题。问题的初衷是希望能从超技术的角度看待人工智能这个现象,或者人工智能解决问题的思路所带来的启发。在问题的设计上可能需要下更多功夫。

    序号的话,其实文末的要点就相当于四个序号了。对于文章内容而言,三千字有时并不算多,加序号就难免将文章切割的太过琐碎。

    最后感谢你的认真阅读,也希望和我分享更多的意见建议。

    2018-01-06
    13
  • eagle
    小学教材都已经改了,0也是自然数了

    作者回复: 看来我没能与时俱进……

    2018-06-16
    1
  • 吴凌华
    关键不同命题要有关联性
    2019-10-30
  • 吴凌华
    任何问题本质都是数学问题

    作者回复: 对,但不一定都是形式逻辑的问题,很多真实的复杂问题都是概率性的,不好用形式化描述

    2019-10-30
  • (^O^☆♪靈夢
    我最近读了一本《计算机程序的构造与解释》,里面使用的lisp方言据说就是有符号逻辑的思想蕴含在里面。按照作者的意思,构建一个lisp知识库可以通过eval+apply的方法,是否和这一章有不谋而合之处呢?
    2018-12-11
  • caocao
    在 周志华 老师的《机器学习》中 陆教授的序中谈到 有不少声音 趋向于 形式逻辑 和 符号 结合起来,因为人的 知识或者认知 可以用符号更好的表示,机器学习 又要以 形式逻辑 为基础,所以结合二者的优势,会更理想,可能多了一次从符号 到形式的 翻译过程。

    老师 在 对于二者的结合有没有更好的想法,期待老师的分享

    作者回复: 这是趋势,但具体怎么实现,是个非常复杂的问题。

    2018-04-02
  • wolfog
    小白一枚,没有使用场景或者当前的人工智能在什么地方用到这些东西,总感觉这些概念或者知识点距自己好遥远。看了三遍甚至也做了笔记可以还是一片混沌。天一老师能否加上使用场景或者案例,这样可能理解起来更容易。

    作者回复: 像线性代数和概率论这些基础数学在人工智能中实际上是无处不在的,数理逻辑目前基本不使用了。在后面介绍具体的机器学习算法时,会尽可能结合实际的问题来介绍。但由于专栏定位是基础课,主要内容还是落在算法的原理上。而真正来自生活的实际案例通常会综合使用多种复杂的方法,要完全说透也不是很容易。

    2018-01-16
  • 秦龙君
    学习了。
    2017-12-29
  • qiang.li
    形式逻辑的处理应该会成为未来依赖小数据学习的人工智能的核心技术呢,数据达到一定规模就会出现奇怪问题吧!这篇文章确实写得好!

    作者回复: 数据未必会出问题,但人类使用的可不是基于超大规模数据的监督学习这种效率低下的学习方式,而是利用从特殊到一半的推理过程

    2017-12-23
收起评论
9
返回
顶部