OpenAI周三警告称,即将推出的模型在制造生物武器时将面临更高的风险——尤其是对于那些并不真正了解自己在做什么的人来说。公司和整个社会都需要为未来做好准备,未来业余爱好者可以更容易地从简单的车库武器发展成为复杂的特工。
OpenAI高管表示该公司预计即将推出的模型将在公司的防范框架下达到高风险水平。因此,该公司在一篇博客文章中表示,正在加强对此类模型的测试,并采取新的预防措施,以防止它们协助制造生物武器。
OpenAI并未设定首个达到该门槛的模型的具体发布时间,但安全系统负责人约翰内斯·海德克(JohannesHeidecke)向Axios表示:“我们预计我们的o3(推理模型)的一些后继者将达到这一水平。”
OpenAI并不一定说其平台能够制造新型生物武器。相反,它认为,如果不采取缓解措施,模型很快就会实现所谓的“新手提升”,或者允许那些没有生物学背景的人去做一些有潜在危险的事情。
海德克说:“我们还没有进入一个完全未知、前所未有的生物威胁时代。我们更担心的是,专家们已经非常熟悉的生物威胁会再次出现。”
其中一个挑战是,人工智能的一些能力虽然可以帮助发现新的医学突破,但也可能被用于造成伤害。但是,
他说:“这并不是说99%甚至十万分之一的表现就足够了。我们基本上需要近乎完美,人工监控和执法系统需要能够快速识别任何逃避自动检测的有害用途,然后采取必要的行动防止危害发生。
OpenAI并不是唯一一家警告模型将达到潜在有害能力新水平的公司。
上个月发布Claude4时,Anthropic表示,由于该模型可能助长生物和核威胁的传播,因此正在启动新的预防措施。各公司也纷纷发出警告,现在是时候开始为人工智能模型能够在广泛任务中达到或超越人类能力的世界做好准备了。
OpenAI表示将于下个月召开一场活动,召集某些非营利组织和政府研究人员讨论未来的机遇和风险。OpenAI政策负责人ChrisLehane向Axios表示,OpenAI还希望扩大与美国国家实验室以及政府的合作。
莱哈内表示:“我们将探索一些额外的工作,以便能够真正有效地利用这项技术来打击那些试图滥用这项技术的人。”
Lehane补充道,最强大模型能力的提升凸显了“至少在我看来,在世界范围内建设人工智能、真正由美国主导的重要性”。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】