研究人员利用自主的GPT-4机器人团队成功入侵了半数以上的测试网站,这些机器人协调工作并随意生成新的机器人。而且,这还是利用了以前未知的、现实世界中的"零日"漏洞。
几个月前,一个研究团队发布了一篇论文,称他们已经能够使用GPT-4自主入侵一日(或N日)漏洞--这些漏洞是已知的安全漏洞,但尚未发布修复程序。如果给出常见漏洞和暴露(CVE)列表,GPT-4能够自行利用87%的临界严重性CVE。
转眼到了本周,同一组研究人员发布了一篇后续论文,称他们已经能够利用一组自主、自传播的大型语言模型(LLM)代理,采用任务特定代理的分层规划(HPTSA)方法,入侵零日漏洞(尚未被发现的漏洞)。
HPTSA使用一个"规划代理"来监督整个过程,并启动多个"子代理"来完成特定任务,而不是指派一个LLM代理来解决许多复杂的任务。规划代理与管理代理之间的关系就像老板与下属之间的关系一样,规划代理负责协调管理代理的工作,而管理代理则负责分派每个"专家子代理"的所有工作,从而减轻了单个代理在其可能难以完成的任务上的负担。
这种技术与CognitionLabs的Devin人工智能软件开发团队所使用的技术类似;它规划出一项工作,找出需要哪些类型的员工,然后通过项目管理完成工作,同时根据需要催生自己的专业"员工"来处理任务。
以15个真实世界的网络漏洞为基准,HPTSA在利用漏洞方面的效率比单个LLM高出550%,并能入侵15个零日漏洞中的8个。而单个LLM只能入侵15个漏洞中的3个。
黑帽还是白帽?人们有理由担心,这些模式会让用户恶意攻击网站和网络。不过,研究人员之一、白皮书作者丹尼尔-康(DanielKang)特别指出,在聊天机器人模式下,GPT-4"不足以理解LLM的能力",无法独立入侵任何设施,这至少是个好消息。
当我们询问ChatGPT能否可以利用零日漏洞时,它通常会回答说:"不,我没有能力利用零日漏洞。我的目的是在道德和法律范围内提供信息和帮助",并建议咨询网络安全专业人士。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】