这一变化反映出商业人工智能开发者面临着日益增长的竞争压力,需要快速部署模型。OpenAI被指控为了加快发布速度而降低安全标准,并且未能及时提交详细的安全测试报告。上周,12名OpenAI前员工在埃隆·马斯克(ElonMusk)起诉OpenAI的案件中提交了一份简报,称如果该公司完成计划中的公司重组,将被鼓励在安全方面进一步偷工减料。
OpenAI或许预料到了会受到批评,因此声称不会轻易做出这些政策调整,并且会将其保障措施保持在“更具保护性的水平”。
OpenAI在周二下午发布的博客文章中写道:“如果另一个前沿人工智能开发商发布了一个没有类似安全措施的高风险系统,我们可能会调整我们的要求。但是,我们首先会严格确认风险状况确实发生了变化,公开承认我们正在进行调整,并评估调整不会显著增加严重损害的总体风险,同时仍将安全措施保持在更具保护性的水平。”
更新后的准备框架也明确表明,OpenAI将更加依赖自动化评估来加快产品开发速度。该公司表示,虽然尚未完全放弃人工主导的测试,但已经构建了“一套不断完善的自动化评估系统”,据称可以“跟上更快的发布节奏”。
一些报道与此相矛盾。据《金融时报》报道,OpenAI给测试人员的时间不到一周,用于即将发布的主要模型的安全检查——与之前的版本相比,时间安排得相当紧凑。该媒体的消息来源还声称,OpenAI的许多安全测试现在都是针对早期版本的模型进行的,而不是针对公开发布的版本。
OpenAI在声明中对其在安全方面妥协的说法提出了质疑。
OpenAI框架的其他变化涉及公司如何根据风险对模型进行分类,包括可以隐藏其能力、规避安全措施、防止其关闭,甚至自我复制的模型。OpenAI表示,现在将重点关注模型是否满足两个阈值之一:“高”能力或“关键”能力。
OpenAI对前者的定义是,一种能够“放大现有的严重伤害途径”的模型。该公司表示,后者则是“引入前所未有的、导致严重伤害的新途径”的模型。
OpenAI在其博客文章中写道:“达到高性能的受保护系统在部署之前必须具备足够的保障措施,以最大程度地降低相关严重损害的风险。达到关键性能的系统还需要在开发过程中采取足够的保障措施,以最大程度地降低相关风险。”
这是OpenAI自2023年以来首次对防范框架做出的更新。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】