作者回复: 原则上是会取得良好效果,但应用在实际问题中还要看真实表现。
池建强回复: 会出的
作者回复: 后验概率最大化意味着把实例划分到最可能的类中,使分类的错误概率最小,也就是期望风险最小。
作者回复: 没错,应该是每个属性的取值都有2种。
作者回复: 1. 这句话的本义是将输入数据转化成分类结果,和回归问题形成对比。连续属性也是可以处理的,但需要离散化的过程,也能直接计算。
2. 这些传统方法不像深度学习,需要一轮一轮地训练。一波数据过来,参数就确定了,要更新就得用新的数据。
作者回复: 后验概率归一化之后和应该为1,那么0.9和0.6就应该是0.6和0.4。即使不归一化,更大的0.9也说明这个样本更像正例。
作者回复: 这可以看成取概率对数的特例
作者回复: 其实朴素贝叶斯也是有损失函数的,它的损失函数就是分类错误数的数学期望,让这个函数最小化和后验概率最大化是等价的,因而算法本身就暗含了最优化的过程。