• 刘祯
    2018-03-27
    这两篇人工神经网络的文章读起来有些吃力,我又去翻看了其他的一些介绍材料,突然发现这原来就是一种决策模型,之前也有所涉及。通过多维度因素及其权重来判断最终的方向或是特定类别。文中如果能够加上配图就方便理解了,看到人类神经元与人造神经元的对比,整个体验就不一样了。
    
     3
  • qiang.li
    2018-01-25
    现在学习神经网络直接就知道了多层感知器可以解决异或问题,但最开始提出感知器这个模型的人才是真正的了不起!我们都是站在巨人的肩膀上!
    
     3
  • zc
    2018-01-16
    单层感知器解决不了异或,那就上多层嘛,这就是所谓的神经网络了
    
     1
  • Geek_59
    2020-01-02
    极客时间
    21天打卡行动 15/21
    <<人工智能基础课17>>神经元与感知器
    回答老师问题:虽然存在缺陷,但感知器依然是人工神经网络研究史上里程碑式的模型,那么如何才能让它跨过异或问题这座大山呢?
    多层感知机(MLP)实现异或(XOR),单层表示线性可分,多层表示线性不可分;
    今日所学:
    1,1943 年,美国芝加哥大学的神经科学家沃伦·麦卡洛克和他的助手沃尔特·皮茨发表了论文《神经活动中思想内在性的逻辑演算》(A Logical Calculus of Ideas Immanent in Nervous Activity),系统阐释了他们的想法:一个极度简化的机械大脑;
    2,在 MP 神经元中,麦卡洛克和皮茨将输入和输出都限定为二进制信号,使用的传递函数则是不连续的符号函数;
    3,从人工神经网络的角度来看,赫布理论的意义在于给出了改变模型神经元之间权重的准则。如果两个神经元同时被激活,它们的权重就应该增加;而如果它们分别被激活,两者之间的权重就应该降低。如果两个结点倾向于同时输出相同的结果,两者就应具有较强的正值权重;反过来,倾向于输出相反结果的结点之间则应具有较强的负值权重。
    4,感知器并不是真实的器件,而是一种二分类的监督学习算法,能够决定由向量表示的输入是否属于某个特定类别;
    5,根据 y_j(t) 和样本 j 的给定输出结果 d_j,按以下规则更新权重向量;这是学习算法中最重要的核心步骤;
    6,在执行二分类问题时,感知器以所有误分类点到超平面的总距离作为损失函数,用随机梯度下降法不断使损失函数下降,直到得到正确的分类结果;
    7,虽然感知器的形式简洁优雅,但它的应用范围也相当有限:只能解决线性分类问题;
    8,明斯基和罗森布拉特之间的恩冤;
    名词:MP 神经元,传递函数,学习机制,赫布理论;感知器(perceptron)”模型;非参数化特性,自适应性,
    总结:
    老师讲课重点:
    1,人工神经网络的神经元用传递函数对输入的线性加权进行非线性处理以产生输出;
    2,感知器是一种二分类的监督学习算法,通过自适应调整权重解决线性分类问题;
    3,感知器的神经元之间通过权重传递信息,权重的变化根据误差来进行调节;
    4,感知器不能解决以异或为代表的线性不可分问题。
    展开
    
    
  • Geeker
    2019-12-16
    如何打知识的诅咒?
    
    
  • 历尽千帆
    2019-01-04
    王老师~有一个问题~我们一直所说的“数据服从高斯分布”是指y服从高斯分布呢,还是x的每个特征都需要服从高斯分布呢?

    作者回复: 因变量y服从,因为需要用高斯分布来定义误差。

    
    
  • Andy
    2018-01-16
    王老师,在工业界,深度学习是否能解决所谓的算法问题?那相比之前红极一时的SVM今后会不会越来越没落?

    作者回复: 不太了解你所说的“算法问题”指什么,但无论是深度学习还是SVM都不是万能的,只会适用于一些特定的分类问题。
    只要有实际用途,深度学习就不会没落,但能取得多少进展也不好说,理论的缺失很可能会制约它的发展。相比之下,深入研究的话,SVM是有明确的理论意义的,它从没有被人叫做炼金术。

    
    
我们在线,来聊聊吧