作者回复: 没错,谢谢指正!
作者回复: 可以举个例子:给出一个句子,判断其中每个词的词性,动词名词还是形容词。每个词的词性再形成一个序列,这就是输出的变量序列,也就是标记序列。这是自然语言处理的常见任务。
PCA本身只是对数据的降维,而且在降维过程中数据的信息还会损失。至于能不能通过降维数据得到较好的模型,可能要具体情况具体分析。
作者回复: 是否使用图像识别我不太清楚,因为棋盘本身是个大坐标系,棋子的位置实际上就是二维的坐标。
生成方法学习的是联合分布,典型算法是朴素贝叶斯;判别方法学习的是条件分布,典型算法是逻辑回归。
交叉验证是验证模型性能的技术,正则化是处理模型本身的技术,两个不是一个范畴。在深度学习里有关于正则化的统一论述,线性回归中也会涉及一点正则化。
作者回复: 这个问题曾经考虑过,最后还是没有在正文里放英文。专栏最后会给出中英文一个索引。
作者回复: 你说的很对,zero不是基于数据的学习,更像是人类启发式的下法。但不管是数据学习还是启发式学习,都需要将最终结果反馈给算法。胜负分类,而不是棋谱规则(最早的alphago好像就不需要规则),才是监督信息。如果只是让zero自己去下,不去管棋局的输赢,他也不会进化到今天的程度。
作者回复: 这么说吧,假如我买了肉买了菜,不看菜谱,完全靠手感炒菜,感觉淡了就多加盐,感觉甜了就少放糖,多做几次直到找到合口味的做法,就是无监督学习。
对问题的定位并不是练习题,很多问题也没有固定的答案,能引发更多关于主题和方法的思考,它的价值就体现了。