奥特曼突然变身OpenAI “安全卫士”!网友:刚被实锤不关心安全还“心理虐待”,谁信啊
褚杏娟、核子可乐

OpenAI 公司已经成立新的安全小组,致力于开发 GPT-4 的继任模型,同时也是为了应对近期多位离职雇员对其商业意图的严厉批评。
该团队被称为安全与保障委员会(Safety and Security Committee,简称 SSC),领导层包括 OpenAI 公司 CEO Sam Altman、委员会主席为 Bret Taylor,外加 Adam D’Angelo 与 Nicole Seligman 等董事会成员。
其他委员会成员则是来自 OpenAI 下辖各团队的负责人,包括曾经取代公司联合创始人 Ilya Sutskever 并担任了 13 天首席科学家的 Jakub Pachocki。
OpenAI 公司表示,从现在起,该安全团队将就“关键的安全与保障决策”向董事会提出建议。这些决定可能会影响 GPT-4 继任模型的开发,即 OpenAI 在公告中提到的“下一个前沿模型”。
在一个名“OpenAI 董事会成立安全委员会”的公告里,插入这样一条重要信息,着实很容易让人联想 OpenAI 是不是在借此暗暗转移大众视线,毕竟大家对 GPT-5 的期待是可以盖过对安全的关注的。
该公司解释称,“我们很自豪能够构建并发布在行业拥有领先能力及安全水平的模型,也同样欢迎在这个重要时刻开展激烈的辩论。”但 OpenAI 并没有介绍具体讨论内容。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. OpenAI成立了安全与保障委员会(SSC),旨在开发GPT-4的继任模型并应对离职员工的批评。 2. 安全团队将向董事会提出关键的安全与保障决策建议,可能影响GPT-4继任模型的开发。 3. 高调离职的员工对公司安全文化和流程的变化表示担忧,认为公司对快速发布新产品的坚持牺牲了安全。 4. OpenAI前董事会成员指控CEO Altman存在撒谎和心理虐待行为,引发了公司内部的深切担忧。 5. Altman承诺捐出大部分财富,继续专注于支持有助于为人们创造富足的技术。 6. Sutskever和Leike等人的离职引发了对OpenAI使命的质疑,一些专家认为应该先关注看得见的风险,如数据集的偏见和毒化给使用模型带来的挑战。 7. 一些专家认为当前对AI安全担忧的紧迫感是过度夸张的,应该更多关注当前AI安全上的风险,如数据集的偏见和毒化给使用模型带来的挑战。 8. 美国在渲染AI安全问题,可能是为了防止模型出口,不让非常厉害的模型技术扩散出去,也有意图得到其他国家类似的承诺。 9. 安全是一个非常大的叙事,每个人在不同的立场都会有不同的看法,当前应该把主要精力投入到哪个方面,答案正确与否,还需要时间验证。
该试读文章来自《AI 前线》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论