“偏见”也是一种模式,但并不是训练集上的被测量对象,从而容易出现“过拟合”;更进一步的,现在常用的训练方法中,即使已经完成被测量对象的模型参数的筛选,但是仍然需要跑相当多的全训练集Epoch,才“放心”的输出模型参数,而这可能更加增强了偏见的“过拟合”。我觉得现在的DNN的训练方法更容易造成偏见过度增强。
我的一个问题是,注意到老师解读的论文中是偏见被修正的同时并没有减少准确率,如果能有效的察觉并发现这些偏见那?有没有相关的文献?或者相关的偏见的dataset?
作者回复: 察觉偏见是一个比较新的研究课题。可以关注一下最新的一些进展。我没有跟进这方面的研究。