极客视点
极客时间编辑部
极客时间编辑部
113240 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:16
登录|注册

Facebook开源无梯度优化工具Nevergrad

讲述:杜力大小:2.09M时长:02:16
如今,自然语言处理、图像分类翻译以及大量任务,都依赖于无梯度优化来调整模型中的参数。为了让参数的调整更快、更简单,最近,Facebook 创建了一个名为 Nevergrad 的 Python 库,并将它开源发布。
据了解,Nevergrad 提供了许多不依赖梯度计算的优化算法,并将其呈现在标准的问答 Python 框架中。此外,它还包括测试和评估工具。
现在,该库已经对外开放,人工智能研究学者和其他无梯度优化相关工作者可以利用其来协助工作。这个平台不仅能够实现最先进的算法和方法,比较在不同设置中的表现,还能帮助机器学习科学家为特定实例匹配最佳优化器。
在 Facebook 人工智能研究院(FAIR),研究者正在将 Nevergrad 应用于强化学习、图像生成以及其他领域的各类项目中,例如,它可以代替参数扫描来更好地调优机器学习模型。
此外,该库包含了各种不同的优化器,例如:差分进化算法、序列二次规划、FastGA、协方差矩阵自适应、噪声管理的总体控制方法,以及粒子群优化算法。在此之前,使用这些算法往往需要研究者自己编写算法实现,这让他们很难在各种不同的方法之间进行比较,有时甚至完全无法比较。
如今,AI 开发者通过使用 Nevergrad,可以轻易地在特定机器学习问题上对不同的方法进行测试,然后对结果进行比较。他们也可以使用众所周知的基准,来评估与当前最先进的方法相比。
在机器学习中,Nevergrad 可以用于调整参数,例如学习率、动量、权值衰减(或许每一层)、dropout(丢弃)算法、深度网络每个部分的层参数及其他等。
此外,Facebook 研究团队还使用 Nevergrad 实现了几个基准测试,以展示特定算法在特定情况下的表现。
未来,Facebook 将持续为 Nevergrad 增加功能,从而帮助研究者创建和评估新算法。最初的版本拥有基本的人工测试功能,不过 Facebook 计划为其增加更多功能,包括表示物理模型的功能。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
20
沉浸
阅读
分享
手机端
快捷键
回顶部