人工智能

揭秘OpenAI“红军”:聘请专家攻击ChatGPT 解决技术伦理问题

据报道,在安德鲁·怀特(AndrewWhite)获得GPT-4的使用权之后,他使用这一人工智能系统提出了一种全新的神经毒剂。GPT-4是热门聊天机器人ChatGPT背后的人工智'...

据报道,在安德鲁·怀特(AndrewWhite)获得GPT-4的使用权之后,他使用这一人工智能系统提出了一种全新的神经毒剂。GPT-4是热门聊天机器人ChatGPT背后的人工智能技术。作为罗切斯特大学的化学工程教授,怀特是OpenAI去年聘请的50名专家学者之一。在6个月的时间里,这支“红军”对这一新模型进行了“定性探索和对抗性测试”,试图攻击它。E32品论天涯网

E32品论天涯网

怀特表示,他使用GPT-4的建议生成了一种可作为化学武器的化合物,并使用“插件”为这个模型提供新的信息源,例如学术论文和化学品制造商名录。随后,这个聊天机器人找到了一个地方来制造这种化合物。E32品论天涯网

他说:“我认为,这将使每个人都获得更快速、更准确地工具去从事化工行业。但这也使得人们会以更危险的方式去开展化学活动,带来了很大的风险。”E32品论天涯网

上个月,OpenAI面向更广泛的公众发布了这项新技术,而这些令人惊讶的发现确保新技术不会带来不良后果。E32品论天涯网

事实上,“红军”的演习目的是探索并了解在社会上部署先进人工智能系统会造成什么样的风险,解决公众这方面的担忧。他们在工作中提出探索性的或是危险的问题,以测试这个工具在回答问题时的详细程度。E32品论天涯网

OpenAI想要探索模型毒性、偏见和歧视等问题。因此,“红军”就谎言、语言操纵和危险的科学常识进行了测试。他们还评估了模型协助和教唆剽窃的情况、金融犯罪和信息安全攻击等违法活动的可能性,以及模型可能会如何威胁国家安全和战场通信。E32品论天涯网

“红军”由一系列专业人士组成,包括学者、教师、律师、风险分析师和信息安全研究员,主要来自美国和欧洲。他们的发现被反馈给OpenAI。在更广泛地推出GPT-4之前,“红军”提供的意见被用于模型的重新训练,解决GPT-4的问题。在几个月的时间里,专家们每人花了10到40个小时去测试这个模型。多名受访者表示,他们的工作时薪约为100美元。E32品论天涯网

其中的许多人都对语言模型的快速发展提出了担忧,尤其是通过插件将语言模型与外部知识源连接在一起可能造成的风险。E32品论天涯网

GPT-4“红军”的成员、瓦伦西亚人工智能研究所教授何塞·埃尔南德斯-奥拉洛(JoséHernández-Orallo)表示:“今天,系统被冻结了。这意味着它不再学习,也不再有记忆。但如果我们让系统继续有机会访问互联网,那么会怎样?这可能会成为一个与世界相连的非常强大的系统。”E32品论天涯网

OpenAI表示,该公司认真对待安全性问题,并在发布前对插件进行了测试,并将随着用户越来越多继续定期更新GPT-4。E32品论天涯网

技术研究员罗亚·帕克扎德(RoyaPakzad)使用英语和波斯语的输入信息对该模型进行了性别、种族和宗教偏见的测试,例如对于佩戴头巾问题。E32品论天涯网

帕克扎德承认,这个工具对非英语母语人士能带来帮助,但也显示出对边缘人群的公开刻板印象,即使随后更新的版本也是如此。她还发现,在用波斯语测试该模型时,聊天机器人用捏造的信息做出回复,即出现所谓“幻觉”的情况更糟糕。与英语相比,在波斯语回复中捏造名字、数字和事件的比例更高。E32品论天涯网

她表示:“我担心,语言多样性和语言背后的文化会受到损害。”E32品论天涯网

来自内罗毕的律师、唯一一名非洲测试人员博鲁·戈洛(BoruGollo)也注意到了模型的歧视性语气。他说:“有一次,我在测试这个模型时,它表现得像个白人在跟我说话。在问到某个特定群体时,它会给一个有偏见的意见,或是在回答中出现歧视。”OpenAI承认,GPT-4仍有可能表现出偏见。E32品论天涯网

“红军”的成员还从国家安全的角度对模型进行了评估,但他们对于新模型的安全性有着不同的看法。美国外交关系委员会研究员劳伦·卡恩(LaurenKahn)表示,当她开始研究,如何将这项技术用于对军事系统的攻击时,她“没有想到模型的回答会如此详细,以至于我只需要做一些微调即可”。E32品论天涯网

不过,卡恩和其他信息安全测试者发现,随着测试时间推移,模型回答的内容逐渐变得安全。OpenAI表示,在推出GPT-4之前,曾训练过这个模型拒绝回答恶意的信息安全问题。E32品论天涯网

“红军”的许多成员表示,OpenAI在发布GPT-4之前已经进行了严格的安全评估。卡内基梅隆大学语言模型毒性专家马尔滕·萨普(MaartenSap)说:“他们在消除这些系统中的显性毒性方面做得非常好。”萨普研究了该模型对不同性别的描述,发现模型的偏见反映的是社会差异。但他也发现,OpenAI做出了一些积极的选择来对抗偏见。E32品论天涯网

然而自推出GPT-4以来,OpenAI一直面临着广泛的批评。例如,有技术伦理组织向美国联邦贸易委员会(FTC)投诉,称GPT-4“有偏见和欺骗性,对隐私和公共安全构成风险”。E32品论天涯网

最近,该公司推出了一项名为ChatGPT插件的功能。通过该功能,Expedia、OpenTable和Insta等合作伙伴应用可以让ChatGPT访问它们的服务,允许ChatGPT代表用户下单。E32品论天涯网

“红军”的人工智能安全专家丹·亨德里克斯(DanHendrycks)表示,这些插件可能会让人类用户“脱离整个链路”。“如果聊天机器人可以在网上发布你的私人信息,访问你的银行账户,或者派警察到你家里去,那会怎么样?总体而言,在让人工智能掌握互联网的力量之前,我们需要更有力的安全评估。”E32品论天涯网

受访者还警告说,OpenAI不能仅仅因为其软件是在线的就停止安全测试。乔治城大学安全和新兴技术中心的希瑟·弗雷斯(HeatherFrase)测试了GPT-4协助犯罪的能力。她表示,随着越来越多人使用这项技术,风险将继续扩大。她表示:“你做运行测试的原因是,一旦它们在真实环境中被使用,行为就会不同。”她认为,应该创建一个公共记录本,报告由大语言模型引发的事故。这类似于信息安全或消费者欺诈报告系统。E32品论天涯网

劳工经济学家及研究员萨拉·金斯利(SaraKingsley)建议,最好的解决方案是清楚地宣传这方面的危害和风险,“就像食品上的营养标签”。“关键是要形成一个框架,知道经常出现的问题是什么。这样你就可以有一个安全阀。这也是为什么我认为,这项工作将会永久性的持续下去。”E32品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]