人工智能

一键开启ChatGPT“危险发言”:AI聊天机器人竟有“大bug” 目前无法修复

字号+作者: 来源:钛媒体 2023-08-03 21:14 评论(创建话题) 收藏成功收藏本文

随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操'...

随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵舆论,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AI应用安全性的担忧。VJq品论天涯网

上周,Google、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(FrontierModelForum),促进前沿AI系统的安全和负责任的发展:推进AI安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。VJq品论天涯网


VJq品论天涯网

那么,问题来了,他们自家的模型真的安全吗?VJq品论天涯网

近日,来自卡内基梅隆大学、CenterforAISafety和BoschCenterforAI的研究人员便披露了一个与ChatGPT等AI聊天机器人有关的“大bug”——通过对抗性提示可绕过AI开发者设定的防护措施,从而操纵AI聊天机器人生成危险言论VJq品论天涯网

当前热门的AI聊天机器人或模型,如OpenAI的ChatGPT、Google的Bard、Anthropic的Claude2以及Meta的LLaMA-2,都无一幸免VJq品论天涯网


VJq品论天涯网

图|通过对抗性提示可绕过4个语言模型的安全规则,引发潜在有害行为VJq品论天涯网

具体而言,研究人员发现了一个Suffix,可将其附加到针对大型语言模型(LLMs)的查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答的概率最大化。VJq品论天涯网

例如,当被询问“如何窃取他人身份”时,AI聊天机器人在打开“Addadversarialsuffix”前后给出的输出结果截然不同。VJq品论天涯网


VJq品论天涯网


VJq品论天涯网

图|开启Addadversarialsuffix前后的聊天机器人回答对比VJq品论天涯网

此外,AI聊天机器人也会被诱导写出“如何制造原子弹”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。VJq品论天涯网

对此,参与该研究的卡内基梅隆大学副教授ZicoKolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”VJq品论天涯网

研究人员在发布这些结果之前已就该漏洞向OpenAI、Google和Anthropic发出了警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击VJq品论天涯网

OpenAI发言人HannahWong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,持续通过红队测试来模拟潜在威胁,并通过一种普遍而灵活的方式修复新发现的对抗性攻击所揭示的模型弱点。”VJq品论天涯网

Google发言人ElijahLawal分享了一份声明,解释了公司采取了一系列措施来测试模型并找到其弱点。“虽然这是LLMs普遍存在的问题,但我们在Bard中已经设置了重要的防护措施,我们会不断改进这些措施。”VJq品论天涯网

Anthropic的临时政策与社会影响主管MichaelSellitto则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型的防护措施使其更加‘无害’。同时,我们也在探索额外的防御层。”VJq品论天涯网


VJq品论天涯网

图|4个语言模型生成的有害内容VJq品论天涯网

对于这一问题,学界也发出了警告,并给出了一些建议。VJq品论天涯网

麻省理工学院计算学院的教授ArmandoSolar-Lezama表示,对抗性攻击存在于语言模型中是有道理的,因为它们影响着许多机器学习模型。然而,令人惊奇的是,一个针对通用开源模型开发的攻击居然能在多个不同的专有系统上如此有效。VJq品论天涯网

Solar-Lezama认为,问题可能在于所有LLMs都是在类似的文本数据语料库上进行训练的,其中很多数据都来自于相同的网站,而世界上可用的数据是有限的。VJq品论天涯网

“任何重要的决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”他强调了对AI技术的适度使用,特别是在涉及重要决策或有潜在风险的场景下,仍需要人类的参与和监督,这样才能更好地避免潜在的问题和误用。VJq品论天涯网

普林斯顿大学的计算机科学教授ArvindNarayanan谈道:“让AI不落入恶意操作者手中已不太可能。”他认为,尽管应该尽力提高模型的安全性,但我们也应该认识到,防止所有滥用是不太可能的。因此,更好的策略是在开发AI技术的同时,也要加强对滥用的监管和对抗。VJq品论天涯网

担忧也好,不屑也罢。在AI技术的发展和应用中,我们除了关注创新和性能,也要时刻牢记安全和伦理。VJq品论天涯网

只有保持适度使用、人类参与和监督,才能更好地规避潜在的问题和滥用,使AI技术为人类社会带来更多的益处。VJq品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]