OpenAI首席执行官山姆-阿尔特曼(SamAltman)表示,OpenAI正在与美国人工智能安全研究所(U.S.AISafetyInstitute)合作,该研究所是一个联邦政府机构,旨在评估和解决人工智能平台的风险。
阿尔特曼是在周四晚间在X上发布的一篇文章中宣布这一消息的,但具体细节并不多。但它--连同今年6月与英国人工智能安全机构达成的类似协议--似乎意在反驳OpenAI为追求能力更强、功能更强大的生成式人工智能技术而将人工智能安全工作置于次要地位的说法。
今年5月,OpenAI有效地解散了一个研究开发控制措施以防止"超级智能"人工智能系统失控问题的小组。包括我们在内的一些报道认为,OpenAI将该团队的安全研究丢在一边,转而推出新产品,最终导致该团队的两位共同负责人扬-莱克(JanLeike,现为人工智能初创公司Anthropic的安全研究负责人)和OpenAI联合创始人伊利亚-苏茨克沃(IlyaSutskever,已创办自己的安全人工智能公司SafeSuperintelligenceInc.)分道扬镳。
为了回应越来越多的批评者,OpenAI表示将取消暗中阻止举报的限制性非贬损条款,成立安全委员会,并将20%的计算量用于安全研究。(已解散的安全团队曾被承诺将OpenAI20%的计算量用于其工作,但从未实现)。阿尔特曼再次承诺将20%的计算量用于安全研究,并重申OpenAI已于今年5月废除了针对新员工和现有员工的非贬损条款。
然而,这些举动并没有安抚住一些观察家--尤其是在OpenAI为安全委员会配备了包括阿尔特曼在内的所有公司内部人员之后,最近又将一名高级人工智能安全主管调到了另一个组织。
包括夏威夷民主党人布莱恩-沙茨(BrianSchatz)在内的五位参议员在最近写给阿尔特曼的信中对OpenAI的政策提出了质疑。OpenAI首席战略官杰森-权(JasonKwon)今天对这封信做出了回应,他写道,OpenAI"致力于在流程的每个阶段执行严格的安全协议"。
OpenAI与美国人工智能安全研究所达成协议的时机似乎有点可疑,因为该公司本周早些时候支持《未来创新法案》(FutureofInnovationAct),该法案是参议院提出的一项法案,将授权安全研究所作为一个执行机构,负责制定人工智能模型的标准和指导方针。这些举动加在一起可能会被认为是一种监管俘获的尝试--或者至少是OpenAI在联邦层面对人工智能政策制定施加影响。
阿尔特曼是美国国土安全部人工智能安全委员会的成员之一,该委员会为美国关键基础设施中"安全可靠地开发和部署人工智能"提供建议。今年,OpenAI在联邦游说方面的支出大幅增加,2024年前六个月的支出为80万美元,而2023年全年的支出为26万美元。
美国人工智能安全研究所设在商务部的国家标准与技术研究所内,与包括Anthropic以及Google、微软、Meta、苹果、亚马逊和NVIDIA等大型科技公司在内的公司联盟进行磋商。该行业组织的任务是根据乔-拜登总统10月份发布的人工智能行政命令开展工作,包括制定人工智能红队、能力评估、风险管理、安全保障和合成内容水印的指导方针。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】