美国约翰斯·霍普金斯大学的专家指出,建立防护框架对平衡技术潜力与风险至关重要。近年来,AI模型已能根据氨基酸序列预测蛋白质结构,甚至生成全新功能的蛋白质。例如,RFdiffusion和ProGen等大模型可在数秒内定制蛋白质,其医学价值显著,但易用性也带来隐患——即便非专业人士也可能利用AI生成有毒物质。
麻省理工学院媒体实验室的研究人员认为,目前AI设计生物武器的风险仍属理论层面,尚无证据表明现有技术能引发大流行。尽管如此,130名蛋白质研究人员已签署协议,承诺安全使用AI。普林斯顿大学的研究团队进一步提出技术方案,例如FoldMark防护系统,通过在蛋白质结构中嵌入可追溯的标识代码,确保危险物质可被追踪。
此外,该研究团队建议改良AI模型,采用“数据遗忘(unlearning)”技术剔除危险数据,或通过“防越狱(antijailbreaking)”训练使AI拒绝恶意指令。美国国防高级研究计划署(DARPA)的研究人员表示,实施这些措施需建立监管机制。斯坦福大学的专家则认为,监管重点应放在AI蛋白质设计的量产环节,生产设施需核查分子来源及用途,并进行安全性检测。
当前,AI与生物安全的关系尚未得到足够重视,但相关研究正逐步展开,以防范潜在风险。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】