根据OpenAI的一篇博客文章,OpenAI正在将其安全和安保委员会转变成一个独立的"董事会监督委员会",该委员会有权因安全问题推迟模型的发布。该委员会在最近对OpenAI的"安全和安保相关流程和保障措施"进行了为期90天的审查后,提出了成立独立委员会的建议。
该委员会由ZicoKolter担任主席,成员包括AdamD'Angelo、PaulNakasone和NicoleSeligman。OpenAI表示,该委员会将"听取公司领导层关于主要模型发布的安全评估简报,并将与全体董事会一起对模型发布进行监督,包括有权推迟发布,直到安全问题得到解决。OpenAI的全体董事会还将"定期听取"有关"安全和安保事项"的简报。
OpenAI安全委员会的成员同时也是公司董事会的成员,因此目前还不清楚该委员会的实际独立性如何,也不清楚这种独立性是如何构建的。(首席执行官山姆-奥特曼(SamAltman)曾是该委员会成员,但现在不再担任该职务。
通过建立独立的安全委员会,OpenAI似乎正在采取与Meta的监督委员会(OversightBoard)有些类似的做法,后者负责审查Meta的一些内容政策决定,并做出Meta必须遵守的裁决。监督委员会的成员都不是Meta的董事会成员。
OpenAI安全和安保委员会的审查还有助于"行业合作和信息共享的更多机会,以推进人工智能行业的安全"。该公司还表示,它将寻找"更多的方式来分享和解释我们的安全工作"以及"更多的机会来对我们的系统进行独立测试"。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】