OpenAI近日发布了一份关于其最新AI模型GPT-4o的安全评估报告,称该模型的整体风险级别为“中等”。这看似一份坦诚的自我审视报告,实则暗藏玄机。
GPT-4o自今年5月发布以来,备受瞩目。OpenAI声称在发布前,曾邀请外部安全专家对模型进行“红队攻击”(在网络实战攻防演习中,红队成员针对目标系统、人员、软件、硬件和设备同时执行的多角度、混合、对抗性的模拟攻击),以发现潜在风险。结果显示,尽管GPT-4o能够生成虚假信息、暴力内容等,但整体风险被评估为“低”。
然而,在风险评估的四个类别中,“劝说”这一类别风险较高,GPT-4o生成的文本在某些情况下甚至比人类撰写的更能影响读者意见,即使它整体上并不具有更可靠的说服力。
值得注意的是,这份报告的发布时机颇为敏感。OpenAI正面临着前所未有的安全质疑,从内部员工到政界人士批评声不断。就在GPT-4o安全报告发布前,美国麻省参议员伊丽莎白·沃伦和众议员洛丽·特拉汉联名共同签署了公开信,要求OpenAI公开回应安全审查和举报机制的相关问题。此前,OpenAI内部也曾因安全问题引起董事会担忧,CEO山姆·阿尔特曼甚至一度被解职。
更令人担忧的是,GPT-4o的发布恰逢美国总统选举前夕。这种情况下,该模型极有可能被滥用于传播虚假信息,甚至被恶意行为者利用。虽然OpenAI强调了其对安全性的重视,但这份报告却让人不禁质疑,所谓的“安全评估”是否只是为了平息舆论的烟雾弹?
对此,加州州参议员斯科特·维纳正在推动一项旨在监管大语言模型的法案,其中包括要求公司对AI的潜在危害承担法律责任。如果该法案通过,OpenAI等公司将面临更严格的安全监管。
OpenAI的“透明度”一直备受诟病。不仅训练数据来源不明,连同安全测试细节也缺乏公开。GPT-4o的安全评估报告虽然是已经朝着“透明”迈开一步,但依旧远远不够——公众有权知道这些强大AI的真实面目,以及它们可能带来的潜在风险。
OpenAI声称的“中等风险”,能否经得起时间的考验,还有待观察。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】