大模型安全实战课
15
15
1.0x
00:00/00:00
登录|注册

10|有害信息生成与公共信息风险

你好,我是赵帅。
这一节我们要讲的,是大模型在生成文本过程中的一类“灰色行为”,它可能没有被攻击,也没有被越狱,但依然输出了危险、敏感或者令人困扰的信息。
你可能很疑惑:“模型不是训练过了吗?怎么还会说出不该说的话?”实际上,大模型本身并不懂“什么是危险”,它只是在根据概率生成最合理的“下一个词”,而我们所谓的“危险信息”,很多时候正是模型从训练数据中学来的“常识”。
当然,有同学可能会联想到我们是不是要讲训练阶段的数据清洗和内容过滤,这一部分我们其实在第七节课的数据投毒和第九节课的隐私保护中已经展开讲过了,但今天的重点并不在数据源头,而是想带你深入理解在生成环节,模型是如何“好心办坏事”的,以及我们该如何对这种灰区输出进行识别与控制。
这一节课,我们就聚焦在两个方面:第一类是显性的有害信息生成,比如仇恨言论、暴力描述、歧视语言等;第二类是隐性的公共信息风险,比如模型在用户询问时主动泄露人物住址、组织成员关系、事件原委等公共数据库中提取的敏感细节。它们都不是黑客干的,而是模型在“做好人”的过程中,不小心踩到了禁区。

模型不是恶意的,但会说出恶意的话

我们先说“有害信息生成”。这类问题看似简单,其实是所有大模型面临的“公共舆论挑战”。很多企业第一次上线模型时,最担心的不是技术问题,而是模型会不会说错话。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结

1. 大模型在生成文本过程中可能输出危险、敏感或者令人困扰的信息,存在风险。 2. 模型可能输出显性的有害信息,如仇恨言论、暴力描述、歧视语言,以及隐性的公共信息风险,如泄露敏感细节。 3. 模型的输出很难用黑白对错来判断,可能表面“很文明”但实际存在风险。 4. 模型对公共信息的过度掌握可能导致输出高敏信息,脱离语境的输出可能比假信息还危险。 5. 防范策略不应只依赖内容审核,而是在模型部署时定义明确的行为边界,引导模型避开高风险区域。 6. 有效的机制是“引导说法”,教导模型在特定情境下说出负责任的话,而非屏蔽问题。 7. 提供可量化的判断框架,如“输出敏感度评分”,让模型“理解什么是敏感”。 8. 输出敏感度评分机制可以作为输出层的“风控阀门”,提前识别出容易引发问题的内容。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《大模型安全实战课》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部
文章页面操作
MAC
windows
作用
esc
esc
退出沉浸式阅读
shift + f
f11
进入/退出沉浸式
command + ⬆️
home
滚动到页面顶部
command + ⬇️
end
滚动到页面底部
⬅️ (仅针对订阅)
⬅️ (仅针对订阅)
上一篇
➡️ (仅针对订阅)
➡️ (仅针对订阅)
下一篇
command + j
page up
向下滚动一屏
command + k
page down
向上滚动一屏
p
p
音频播放/暂停
j
j
向下滚动一点
k
k
向上滚动一点
空格
空格
向下滚动一屏
播放器操作
MAC
windows
作用
esc
esc
退出全屏
⬅️
⬅️
快退
➡️
➡️
快进
空格
空格
视频播放/暂停(视频全屏时生效)