徐听听
2017-11-08
图像上用卷积是利用了卷积作用在图像像素的空间平移不变性,例如一只猫无论是出现在图像的哪个位置(左上还是右下角),都对分类器结果无影响。
将卷积作用在文本信息中能够有效应该也是利用了卷积的平移不变性,无论和抑郁/自残相关的词句出现在文本的哪个位置,只要出现过,都可以被检测出来。
7
阿卡斯
2018-07-06
对于那个模型我有两个技术细节不是特别清晰,,最开始输入的是文本(即帖子文章)我可以理解成是应用了word2vec向量化文章中每一个单词构成了大矩阵进入到CNN么?那这样的话每个文章字数是不同的,我们即使确定了文章最大长度的95%还是会有信息缺失,这个输入矩阵宽度如何设计?第二个问题每个用户的帖子文章数量是不同的最后我们通过CNN提取feature数量是不同的具体是怎么merge没有提到
1
huan
2017-11-09
我的理解是,这里的场景下,物理意义是帖子发表人表达抑郁或者自残情绪的时候,选词是比较狭窄的,负面的,和正常人比较是相对偏少的,而且抑郁或者自残的情绪波动比较少(正常人的情绪应该比较多)。不过不知道这种“物理意义“是否存在很多的偏见。
另外不知道文章中的原始输入X是怎么做向量化的,也就是“每个帖子的一个范围内单词“是怎么操作的?直接分词还是做stem,或者去掉噪音词吗?保留词的顺序吗?没有用LSTM甚至是word vector这些序列数据怎么处理的那?
作者回复: 我的理解是用了Embedding。
1
徐听听
2017-11-08
图像上用卷积是利用了卷积作用在图像像素的空间平移不变性,例如一只猫无论是出现在图像的哪个位置(左上还是右下角),都对分类器结果无影响。
将卷积作用在文本信息中能够有效应该也是利用了卷积的平移不变性,无论和抑郁/自残相关的词句出现在文本的哪个位置,只要出现过,都可以被检测出来。
我们在线,来聊聊吧
✕
您好,当前有专业客服人员在线,让我们来帮助您吧。
我们在线,来聊聊吧