• 若水清菡
    2025-08-11 来自北京
    除了敏感词屏蔽和语义理解外,还有哪些手段可以帮助模型避免输出不合规内容? 有一篇文章《人工智能时代内容生成的伦理治理》里面讲到“除了合规性要求,企业还需要多做一步,投入更多时间和精力做好技术自纠,防范和应对自身技术系统被恶用的风险。比如通过预训练数据清洗,对某些敏感数据进行有效识别并剔除,提高源头数据质量;在内容生成过程中设置过滤环节,及时识别用户的主观滥用、恶用意图,拦截违规生成内容;对医疗等敏感领域的内容生成实施人工审核兜底;通过用户反馈学习,拒绝违背法律法规、社会公序良俗的内容生成要求,降低模型伦理风险;等等。” 在内容生成过程中设置过滤环节 也是一种很好的办法。
    
    