作者回复: 你好,非常感谢你的精彩提问,你的问题非常与时俱进! 以目前的现状来看,网信办出台《人工智能生成合成内容标识办法》(简称“标识方法”)于2025年9月1日生效的行为应该是敲山震虎,做到后续出事时可以有据可依。至于问题中提及的没有看到AI标记,我猜测大概率应该是基于移动端或者网页端的C端测试结果,因为我明确了解到的,像豆包(甲方叫“北京火山引擎”),以及商汤(日日新大模型)、智谱、千问、文心一言/小度、MiniMax、面壁等,在基于B端或者是G端的合作上,都是已经可溯源的隐式标识了。合作的模式就是甲乙双方在法务层面签署数据保密协议,然后甲方提供的所有训练都在源头加上标识,外部知识库(即RAG)也要连带签署三方合作协议,在数据上提供元数据并且由大模型服务商加注隐式标识。 从我个人解读理解来看,我觉得目前的“标识方法”中规定的诸如“属于深度合成并可能导致公众混淆或误认”的情形,这种“公众混淆”的判定还是有一定的主观性和模糊性,所以在权衡成本和责任分摊上,供应商先以B端和G端服务为主,毕竟其社会影响力和责任比C端可能出现的“公众混淆”事件要重大。至于C端的管理,我猜测,并不会加大力度的去限制个人使用AI去合成创作,但是涉及到商用层面,以有敲山震虎的标识方法在前,出现恶性影响的事件自己可以通过实名认证等渠道做到追溯以及有法可依。 目前隐式标识的方法并不难,核心的保护机制就是算法不公开,但主要的技术手段都是对embedding加密或者在不同模态的数据特征上加入适量的白噪音而形成。 感谢你的提问,期待未来与你能有更多关于大模型安全方面的话题交流。 P.s. “标识方法”原文:(https://www.cac.gov.cn/2025-03/14/c_1743654684782215.htm)