• 刘祯
    2018-01-26
    昨天还说要有抽象思维能力,今天的支持向量机就是直观的考验了。就像之前的同学说的,如果老师能够加上图其实就能够理解内涵了。

    从低维到高维,这就是空间构建的方法。支持向量是最优分界线上的边缘样本,而机是机器学习的算法,全称为 Support Vectors Machines。

    在知乎和其他资料上有较为清楚的解释。以下是链接,和我一样的不懂的同学请戳。

    https://www.zhihu.com/question/21094489
    展开
     1
     12
  • geoxs
    2019-01-16
    关于棋盘的例子,我觉得这样说更好一点:棋盘的棋子本来没有颜色,所以厮杀后就无法分类了,这时候加上一个颜色维度,人类就可以看一眼就对棋子进行准确的分类

    作者回复: 主要是边界的问题,没有下棋之前棋子各排两边,一条直线就能分开;但下棋之后相互交错,需要更复杂的曲线形状边界。

    
     1
  • lonelyandrew
    2018-06-06
    软间隔最大化下的约束条件,第二个不等式,≤右侧的表达式是否应该为-1+/xi_i?

    作者回复: 留言里数学符号显示有问题,但你写的应该是对的。

    
     1
  • wolfog
    2018-02-08
    王老师您第九段的那两个公式(WTX+B>=1).我在看其他资料的时候,假设函数间隔为1,所以就有了y(WTX+B)>=1(根据定义,函数间隔是y(WTX+B)的最小值,而y是结果标签,只能取1或者-1)所以根据不等式的运算WTX+B要么大于等于1或者小于等于-1吧

    作者回复: 没错,少了个负号,谢谢你指正🙏🏻小于-1意味着点到超平面的距离是大于1的

    
     1
  • MJ小朋友
    2018-01-06
    老师讲的很不错,另外我又看了书上关于对偶拉格朗日的引入解参数w和b
    
     1
  • Geek_59
    2019-12-28
    21天打卡行动 10/21
    <<人工智能基础课12>>支持向量机
    回答老师问题:支持向量机主要用于解决分类任务,那么它能否推而广之,用于解决回归任务呢?在回归任务中,支持向量又应该如何表示呢?
    经查资料分享:支持向量回归叫SVR,obj=C(i=1∑l(ξ+ξ∗)+2C1ωTω),支持向量机回归模型基于不同的损失函数产生了很多变种,个理解,SVR模型中要加损失厌恶的,找到一个分离超平面(超曲面),使得期望风险最小。
    今日所学:
    1,支持向量机的由来:1963 年,在前苏联莫斯科控制科学学院攻读统计学博士学位的弗拉基米尔·瓦普尼克和他的同事阿列克谢·切尔沃宁基斯共同提出了支持向量机算法;
    2,支持向量机是一种二分类算法,通过在高维空间中构造超平面实现对样本的分类;
    3,线性可分支持向量机就是在给定训练数据集的条件下,根据间隔最大化学习最优的划分超平面的过程
    4,测试距离是个归一化的距离,因而被称为几何间隔,这个距离是非归一化的距离,被称为函数间隔
    5,函数间隔和几何间隔的区别就在于未归一化和归一化的区别。
    6,线性可分支持向量机是使硬间隔最大化的算法;
    7,线性支持向量机的通用性体现在将原始的硬间隔最大化策略转变为软间隔最大化;
    8,误分类引入惩罚函数,
    9,不论是线性可分支持向量机还是线性支持向量机,都只能处理线性问题,对于非线性问题则无能为力;
    10,将原始低维空间上的非线性问题转化为新的高维空间上的线性问题,这就是核技巧的基本思想;
    11,核函数有两个特点。第一,其计算过程是在低维空间上完成的,因而避免了高维空间(可能是无穷维空间)中复杂的计算;第二,对于给定的核函数,高维空间 \mathcal{H} 和映射函数 \phi 的取法并不唯一。一方面,高维空间的取法可以不同;另一方面,即使在同一个空间上,映射函数也可以有所区别;
    12,核函数的使用涉及一些复杂的数学问题,其结论是一般的核函数都是正定核函数;
    13,在支持向量机的应用中,核函数的选择是一个核心问题,核函数的包含:线性核,多项式核,高斯核,拉普拉斯核,Sigmoid 核,
    14,核函数可以将线性支持向量机扩展为非线性支持向量机
    15,持向量机的一个重要性质是当训练完成后,最终模型只与支持向量有关,这也是“支持向量机”这个名称的来源。正如发明者瓦普尼克所言:支持向量机这个名字强调了这类算法的关键是如何根据支持向量构建出解,算法的复杂度也主要取决于支持向量的数目;
    名词:法向量,截距,低维欧几里得空间,高维希尔伯特空间\mathcal{H},SMO 算法
    总结:这一张很抽象,抽象到一个不能用由生物分子合成的三维空间的人去想象那些在多维空间存在一个超平面把我们 要分类的的事物,分出因果后,再通过核函数压缩直至降维;
    老师讲的重点:
    1,线性可分支持向量机通过硬间隔最大化求出划分超平面,解决线性分类问题;
    2,线性支持向量机通过软间隔最大化求出划分超平面,解决线性分类问题;
    3,非线性支持向量机利用核函数实现从低维原始空间到高维特征空间的转换,在高维空间上解决非线性分类问题;
    4,支持向量机的学习是个凸二次规划问题,可以用 SMO 算法快速求解。
    展开
    
    
  • code2
    2019-02-10
    把公式重排一下版,显示出来的很杂乱,看不清楚。
    
    
  • 陈邓~cd
    2018-06-25
    “通过合理设置参数 w和 b
    ,可以使每个样本点到最优划分超平面的距离都不小于 -1,”最末尾,距离是不小于1?

    作者回复: 是的,感谢细心指出

    
    
  • Colin.Tao
    2018-01-19
    感觉数学底子还不够,有点吃不太懂,得再学习学习...不过特别喜欢核函数这个东西,从低维升级到高维,解决线性不可分的问题。至少我先学习下这种解决问题的思路先,生活中也是,很多事情上升个维度思考,问题就很简单了。不过如果老师能再讲更细一些,比如画一些图之类的,然后简单推一下公式。如果还能加一个推导过程的视频就太好了,哈哈哈😂

    作者回复: 加上推导的话想要简单就不容易啦

    
    
我们在线,来聊聊吧