几乎所有的经验都以数据的形式出现,因而机器学习的任务也就变成了基于已知数据构造概率模型,反过来再运用概率模型对未知数据进行预测与分析。
来自:01 | 频率视角下的机器学习
6 人划过
较小的 VC 维虽然能够让训练误差和泛化误差更加接近,但这样的假设空间不具备较强的表达能力(想想上面线性模型的例子),训练误差本身难以降低。反过来,VC 维更大的假设空间表达能力更强,得到的训练误差也会更小,但训练误差下降所付出的代价是训练误差和泛化误差之间更可能出现较大的差异,训练集上较小的误差不能推广到未知数据上。这其实也体现了模型复杂度和泛化性能之间的折中关系。
来自:04 | 计算学习理论
4 人划过
问题不能是完全随机的,需要具备一定的模式
来自:03 | 学什么与怎么学
4 人划过
*精彩内容为该课程各文章中划线次数最多的内容
编辑推荐
讲师的其他课程
包含这门课的学习路径
机器学习工程师
13门课程 37.3w人学习
Python工程师
19门课程 117.5w人学习
看过的人还看了