• 若水清菡
    2025-07-31 来自北京
    1. 你是否曾在自己的模型应用中,发现过“说得没错但听起来不对”的场景? 比如用户发一些极端问题,涉及民族、肤色、性别,然后大模型回复一个99%的男人、99%的中国人等这种开头的回复,就属于这种说得没错但听起来不对 2. 如果模型说出了一句容易被误解的内容,你希望它下一次怎么改说法? 接第一个问题,在一些敏感领域,像百分比这些其实不显示最好,减少歧义
    
    