继联合创始人伊利亚-苏茨克沃(IlyaSutskever)离职后,本周早些时候辞职的OpenAI重要研究员扬-莱克(JanLeike)周五上午在X上发帖称,在公司,"安全文化和流程已经被闪亮的产品所取代"。
访问:
雷克的声明是在《连线》报道OpenAI已经解散了专门负责解决长期人工智能风险的团队(称为"超级对齐团队")之后发表的。莱克一直负责管理Superalignment团队,该团队于去年7月成立,目的是在OpenAI开发出能像人类一样推理的人工智能时,"解决实施安全协议的核心技术挑战"。
OpenAI最初的想法是向公众公开提供他们的模型,这也是该组织名称的由来,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此这些模型已经成为专有知识。
"我们早该认真对待AGI的影响。我们必须优先为其做好准备,"莱克在周五上午关于他辞职的后续推文中说。"只有这样,我们才能确保AGI造福全人类。"
在去年不成功的董事会政变中支持Altman的另一位OpenAI联合创始人约翰-舒尔曼(JohnSchulman)将接替Leike的职责。在针对山姆-奥特曼(SamAltman)的臭名昭著的失败政变中扮演关键角色的苏茨克沃周二宣布离职。
莱克的帖子凸显了OpenAI内部日益紧张的关系。随着研究人员在管理ChatGPT和DALL-E等消费级人工智能产品的同时竞相开发人工通用智能,像莱克这样的员工开始担心创建超级智能人工智能模型的潜在危险。莱克说,他的团队被剥夺了优先权,无法获得计算和其他资源来完成"关键"工作。
莱克写道:"我之所以加入,是因为我认为OpenAI将是世界上从事这项研究的最佳场所。然而,我与OpenAI领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。"
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】