人工智能基础课
王天一
工学博士,副教授
58937 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 59 讲
开篇词 (1讲)
人工智能基础课
15
15
1.0x
00:00/00:00
登录|注册

20 人工神经网络 | 看不见的手:自组织特征映射

训练过程
拓扑有序的特征映射
竞争性学习机制
无监督学习
自然语言处理
图像处理
编码器-解码器模型
数据压缩
自适应过程
合作过程
竞争过程
初始化权重系数
神经元的位置与功能有直接关系
一维或二维的网格
竞争性学习模拟侧向抑制机制
神经科学的侧向抑制效应
竞争性学习
保留输入数据的结构化特征
降维作用
1981年由芬兰赫尔辛基大学的泰乌沃·柯霍宁提出
监督学习方法
局部逼近的径向基网络
全局逼近的多层感知器
复杂性研究与人工智能
总结
应用
特征映射
训练过程
拓扑结构
竞争性学习
自组织特征映射(Self-Organizing Map)
神经网络实现无监督学习
自组织特征映射

该思维导图由 AI 生成,仅供参考

无论是全局逼近的多层感知器,还是局部逼近的径向基网络,在训练中用到的都是监督学习的方法。如果将无监督学习引入神经网络中,对应的结构就是自组织特征映射(Self-Organizing Map),这是芬兰赫尔辛基大学的泰乌沃·柯霍宁于 1981 年提出的一类神经网络。
相比于前面介绍的神经网络,自组织映射有两个明显的不同。
第一,它能够将高维的输入数据映射到低维空间之上(通常是二维空间),因而起到降维的作用。在降维的同时,自组织映射妙就妙在还能维持数据在高维空间上的原始拓扑,将高维空间中相似的样本点映射到网络输出层的邻近神经元上,从而保留输入数据的结构化特征。
第二,自组织映射采用的是竞争性学习而非传统的纠错学习。在竞争性学习中,对输入样本产生响应的权利并不取决于预设的权重系数,而是由各个神经元相互竞争得到的。不断竞争的过程就是网络中不同神经元的作用不断专门化的过程。
竞争性学习的理念来自于神经科学的研究。在生物的神经系统中存在着一种名叫“侧向抑制”的效应,它描述的是兴奋的神经元会降低相邻神经元活性的现象。侧向抑制能够阻止从侧向刺激兴奋神经元到邻近神经元的动作电位的传播。什么意思呢?当某个神经元受到刺激而产生兴奋时,再刺激相近的神经元,则后者的兴奋对前者就会产生抑制作用。这种抑制作用会使神经元之间出现竞争,在竞争中胜出的神经元就可以“胜者通吃”,将竞争失败的神经元全部抑制掉。
自组织映射中的竞争性学习模拟的就是上述的侧向抑制机制。自组织映射的拓扑结构并非如多层感知器般的层次结构,而是一张一维或者二维的网格,网格中的每个节点都代表一个神经元,神经元的权重系数则是和输入数据的维度相同的向量。在拓扑结构中,每个神经元的位置都不是随意选取的,而是和功能有着直接的关系。距离较近的神经元能够处理模式相似的数据,距离较远的神经元处理对象的差异也会很大。
由于神经元在网格中的位置至关重要,因而训练过程就是在空间上对神经元进行有序排列的过程。自组织映射为神经元建立起一个坐标系,由于每个网格神经元对应一类特定的输入模式,输入模式的内在统计特征就是通过神经元的坐标来表示的。
因此,自组织映射的主要任务就是将任意维度的输入模式转换为一维或二维的离散映射,并以拓扑有序的方式自适应地实现这个映射。在训练过程中,自组织映射中每个神经元的权重系数首先要初始化,初始化的方式通常是将其赋值为较小的随机数,这可以保证不引入无关的先验信息。当初始化完成后,网络的训练就包括以下三个主要过程。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

自组织特征映射(Self-Organizing Map,SOM)是一种无监督学习方法,通过神经网络实现数据的降维和拓扑结构的保持。相比于传统的监督学习方法,SOM采用竞争性学习,模拟了生物神经系统中的侧向抑制效应。在训练过程中,SOM通过竞争、合作和自适应过程,将高维输入数据映射到低维空间,并保持了数据的拓扑结构特征。其训练过程包括初始化权重系数、竞争过程、合作过程和自适应过程,最终实现了对输入模式的编码和解码,起到了数据压缩的作用。SOM的特征映射能够表示输入模式的统计特性,对于数据分析和模式识别具有重要意义。自组织映射通过无监督方式训练大量数据实现特征映射,以实现不同类型数据的区分。其简便易行的特性和强大的可视化能力使它在需要大规模数据训练的应用中得到使用。自组织映射的应用包括在图像处理中检测和描述语义目标和目标类之间的存在关系,以及自然语言中单词的语义规则。总之,自组织特征映射是一种强大的无监督学习方法,能够有效地处理大规模数据并保持数据的拓扑结构特征,具有广泛的应用前景。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《人工智能基础课》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(7)

  • 最新
  • 精选
  • 林彦
    请问拓扑邻域函数有什么不错的参考资料除了文中的原理阐述,能看到数学公式,代码实现(最好是基于Python)或伪代码实现吗?能有实例更好。谢谢。

    作者回复: 据我所知,似乎没有把拓扑邻域函数专门拿出来作为一个大的题目探讨的书,可以搜索一下是否有相关的论文。

    2018-01-23
    1
  • 杨家荣
    极客时间 21天打卡行动 18/21 <<人工智能基础课20>>自组织特征映射 回答老师问题: 自组织映射具有通过时间上的演化在无序中产生有序的内在能力,这与目前同样火热的非线性科学与复杂系统的研究有几分神似。那么关于复杂性的研究能否应用于人工智能之中呢? 查资料后,汇总自己的语言:是可以的,例如当今的围棋alpha zero,还有医学领域等等; 今日所学: 1,将无监督学习引入神经网络中,对应的结构就是自组织特征映射(Self-Organizing Map); 2,自组织映射有两个明显的不同:第一,它能够将高维的输入数据映射到低维空间之上(通常是二维空间),因而起到降维的作用。第二,自组织映射采用的是竞争性学习而非传统的纠错学习。 3,侧向抑制”的效应,它描述的是兴奋的神经元会降低相邻神经元活性的现象。侧向抑制能够阻止从侧向刺激兴奋神经元到邻近神经元的动作电位的传播; 4,自组织映射的主要任务就是将任意维度的输入模式转换为一维或二维的离散映射,并以拓扑有序的方式自适应地实现这个映射; 5,网络的训练就包括以下三个主要过程:a,竞争过程,b,合作过程,c,自适应过程; 6,竞争过程的实质是找到输入模式和神经元之间的最佳匹配; 7,两个向量的内积越大,它们之间的欧氏距离就越小,因而内积最大化的匹配准则等效于欧氏距离最小化。从这个角度看,获胜神经元就是对输入模式的最佳匹配。 8,竞争过程确定了合作神经元的拓扑邻域的中心,合作过程就要界定中心之外的拓扑邻域; 9,自适应过程可以分为两个阶段。第一阶段是排序阶段,权重系数的拓扑排序在这个阶段形成;第二阶段是收敛阶段,通过微调特征映射实现对输入模式的精确描述。只要算法的参数没有问题,自组织映射就能将完全无序的初始状态按照输入模式以有组织的方式重构,这也是“自组织”的含义。 10,从输入模式到神经元的映射关系被称为特征映射; 11,自组织映射可以看成是一个编码器 - 解_码器模型:寻找最佳匹配神经元就是对输入模式进行编码,确定权重系数则是对编码结果进行解码,邻域函数则可以表示对编解码过程造成干扰的噪声的概率密度。自组织映射的这个性质与信息论中用于数据压缩的向量量化方法不谋而合。 总结: 重点: 1,自组织映射是一类无监督学习的神经网络,模拟了生物神经系统的竞争性学习机制; 2,自组织映射能将任意维度的输入模式转换为一维或二维的离散映射,得到的特征映射是拓扑有序的; 3,在拓扑映射中,输出神经元的空间位置对应了输入数据的模式或特征; 4,自组织映射网络的训练包括竞争过程、合作过程和自适应过程等几个主要步骤。
    2020-01-05
    2
  • Geek_7389a6
    关于复杂性的研究,应该是可以用于人工智能的。虽然大都倾向于以简化繁,但繁琐复杂是研究中必然会逐渐面对的,不然怎么从复杂中抽取出精炼的简单的成分
    2020-04-09
    1
  • ifelse
    学习打卡
    2023-05-08归属地:浙江
  • Geek_HanX2
    一个参考视频:https://www.bilibili.com/video/BV1244y1E7PQ
    2022-11-29归属地:湖南
  • 杨家荣
    极客时间 21天打卡行动 18/21 <<人工智能基础课20>>自组织特征映射 回答老师问题: 自组织映射具有通过时间上的演化在无序中产生有序的内在能力,这与目前同样火热的非线性科学与复杂系统的研究有几分神似。那么关于复杂性的研究能否应用于人工智能之中呢? 查资料后,汇总自己的语言:是可以的,例如当今的围棋alpha zero,还有医学领域等等;
    2020-01-05
  • 杨家荣
    极客时间 21天打卡行动 18/21 <<人工智能基础课20>>自组织特征映射
    2020-01-05
收起评论
显示
设置
留言
7
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部