• 张申傲
    2024-06-28 来自北京
    第14讲打卡~ 思考题:Transformer模型可能会先通过自注意力机制,识别出“不坏”和“不算特别好”这两个形容词,它们都是表达情感,但是在偏向性上有所不同,所以需要分析它们共同作用下的整体倾向。之后,Transformer可能会基于位置编码,判断出“不算特别好”是出现在“不坏”之后,并且使用“但”表达了情感转折,因此可能更倾向于后面的表达。最终整体的情感可能是轻微偏向负面的。 当然这只是理论上的推测,实际上这种比较模糊的情感表达,即使人类也未必能完全理解正确。
    
    1