人工智能

GPT-4“变笨”被斯坦福实锤 OpenAI已开始调查

字号+作者: 来源:量子位 2023-07-20 13:51 评论(创建话题) 收藏成功收藏本文

GPT-4变笨,实锤了???来自斯坦福大学和UC伯克利大学的一篇最新论文显示:6月的GPT-4在一些任务上的表现客观上就是比3月的更差。比如他们用同样500道“判断给'...

GPT-4变笨,实锤了???来自斯坦福大学和UC伯克利大学的一篇最新论文显示:6月的GPT-4在一些任务上的表现客观上就是比3月的更差。比如他们用同样500道“判断给定整数是否为质数”的问题来测这两个版本,发现3月份的GPT-4答对了488个,而6月只对了12个……成功率直接从97.6%下降到2.4%!kzA品论天涯网

而当研究员通过经典的“Let’sthinkstepbystep”办法来引导后者往正确答案上靠时,居然不好使了——kzA品论天涯网

6月的GPT-4已不再尝试给出中间步骤,而是仍然直接回答“yes”或“no”。kzA品论天涯网

不止如此,代码能力也下降了。kzA品论天涯网

对于50道简单级别的LeetCode题,6月的GPT-4只能做到有10%的答案可以不经更改直接运行,而在3月份的时候,这个数字还是52%。kzA品论天涯网

目前,这项结论已在网上引起了极大的关注。kzA品论天涯网


kzA品论天涯网

有人称,这意味着“大型语言模型的蜜月期已经结束”。kzA品论天涯网

而OpenAI方面也已火速注意到这项研究,并称已开始积极调查。kzA品论天涯网


kzA品论天涯网

所以,短短3个月,GPT-4身上究竟发生了什么?kzA品论天涯网

论文“实锤”GPT-4变笨kzA品论天涯网

这篇论文一共从数学、代码、视觉和敏感问题四个角度比较了三月和六月的GPT-4。kzA品论天涯网


kzA品论天涯网

(本节内容系对论文进行转述,不代表量子位认同有关结论)kzA品论天涯网

其中数学是GPT-4能力下降最为明显的方面。kzA品论天涯网

证据就是开头提到的500个质数判断问题,错误率直接暴增近40倍,回答的长度也大幅缩水。kzA品论天涯网


kzA品论天涯网

具体来看,论文中展示了GPT-4对其中一个问题的回答。(展示的数字为17077,经验证是质数)kzA品论天涯网


kzA品论天涯网

我们可以看到,研究人员已经使用了“stepbystep”的思维链式提问方式,但似乎并没有奏效。kzA品论天涯网

这也许可以解释成数学本就不是强项,但GPT-4在代码方面表现同样下降得厉害。kzA品论天涯网

数据上看,简单级别的Leetcode问题通过率从52%下降到10%,而代码的长度变长了。kzA品论天涯网


kzA品论天涯网

论文作者同样给出了一个例子。kzA品论天涯网

这个问题是这样的:kzA品论天涯网

给定一个三位整数n,把n、2n、3n“连接”在一起。“连接”就是把两个数直接拼起来,比如“114”和“514”进行“连接”的结果就是“114514”。如果“连接”之后的结果中不含0,同时各位中包含1-9中的所有数字,且每个数字有且仅有一个,则把认为n是一个“fascinating”的数字。请用Python写一段代码,判断一个数是否“fascinating”。kzA品论天涯网


kzA品论天涯网

(“classSolution”是Leetcode平台给定的代码开头格式)kzA品论天涯网

三月的GPT-4给出了这样的代码:kzA品论天涯网

class Solution(object): def isFascinating(self, n):     concatenated_number = str(n) +str(2 * n) + str(3 * n)     return sorted(concatenated_number)=['1', '2', '3', '4', '5', '6', '7', '8', '9']这段代码中包含了一些小问题,最后一行“判断相等”时应该用双等号。kzA品论天涯网

修正过后,提交的代码成功通过。kzA品论天涯网


kzA品论天涯网

而六月的版本回答是酱婶儿的:kzA品论天涯网

```Pythonclass Solution(object):    def isFascinating(self, n):        # Concatenate n, 2*n and 3*n        s = str(n) + str(n*2) + str(n*3)        # Check if the length of s is 9 and contains all digits from 1 to 9        return len(s) == 9 and set(s) == set('123456789')```虽然代码本体也是对的,但是GPT-4的输出有些问题:kzA品论天涯网


kzA品论天涯网

有段Markdown标记直接以文本形式显示在了输出结果之中,导致程序无法直接运行。kzA品论天涯网

之所以研究者认为GPT-4在这里犯了错,是因为在prompt中已经强调了“codeonly”。kzA品论天涯网

虽然GPT-4实用性上表现有所下降,但安全性似乎得到了提升。kzA品论天涯网

对于敏感问题,GPT-4回答的概率下降了超四分之三,相应做出的解释也变少了。kzA品论天涯网


kzA品论天涯网

研究人员尝试着提出了一个带有偏见的问题。kzA品论天涯网

三月份的GPT-4会解释为什么拒绝回答这个问题,但六月份的版本只说了一句无可奉告。kzA品论天涯网


kzA品论天涯网

而越狱攻击成功的概率下降得更为明显,可以看出六月的GPT-4相比三月似乎拥有了更强的鲁棒性。kzA品论天涯网


kzA品论天涯网

此外,研究团队还对两个版本的GPT-4进行了“视觉”能力测试。kzA品论天涯网

这部分的测试数据来自ARC数据集,需要得到的“图像”是3x3的方格,以二维数组形式用数字表示方格的颜色。kzA品论天涯网


kzA品论天涯网

相比于三月,六月版GPT-4的表现有小幅度提升,但并不明显。kzA品论天涯网


kzA品论天涯网

而一些在三月能答对的问题,到了六月却答错了。kzA品论天涯网


kzA品论天涯网

所以,在这一方面很难说GPT-4究竟是变好还是变坏了。kzA品论天涯网

总体上看,论文作者的态度比较谨慎,没有直接断言GPT-4表现是否变差。kzA品论天涯网

但在数学和代码方面,文中给出的证据的确印证了一些网友们的说法。kzA品论天涯网

而作者也表示,这一发现主要是告诉大家,不断地去测试AI系统的能力并监控其发展非常重要。kzA品论天涯网

为什么会这样?kzA品论天涯网

不管怎么说,看完这项研究后,还是有不少人兴奋地表示:终于有研究证明我一直以来的猜测了。kzA品论天涯网


kzA品论天涯网

而在“兴奋”之余,大家似乎也意识到更重要的问题:kzA品论天涯网

我们和大模型的“蜜月期”已经结束,已开始告别最初的“Wow”阶段。kzA品论天涯网

也就是说我们更加关注其真正的实力,而不是表面的、发布会里演示里的“花拳绣腿”。kzA品论天涯网

所以,大家也不由地好奇:kzA品论天涯网

为什么会这样?为什么看起来变笨了呢?kzA品论天涯网


kzA品论天涯网

按理来说模型的质量应该随着时间的推移得到更新,变得更好;就算没有显著提升,数学和代码能力也不能下降这么迅速。kzA品论天涯网

猜测有很多。kzA品论天涯网

首先就是OpenAI可能采取了成本削减措施。kzA品论天涯网

这位叫做@Dwayne的网友指出,由于GPT-4的运行成本非常高,他怀疑OpenAI开始控制成本,这从原来每3小时能发送100条信息到现在只能发送25条的限制就能看出。kzA品论天涯网

而为了让模型更快地做出决策,OpenAI是否已不再让GPT-4对多种可能的回答进行权衡、不进行深入评估就给出最终答案就值得人深思了。kzA品论天涯网

毕竟决策时间少了,计算成本就会降低,而这样一来,回答质量就不可避免的下降了。kzA品论天涯网


kzA品论天涯网

有意思的是,在斯坦福和UC伯克利这项成果发布后,有不少人照猫画虎进行了测试,但他们发现,同样的问题GPT-4可以做对,比如“17077是否为质数”,很多回答都是“是”。kzA品论天涯网

究其原因,这些人基本都用了最新的代码解释器或者Wolfram插件。kzA品论天涯网


kzA品论天涯网

这也就引出了网友们的第二点猜测:kzA品论天涯网

GPT-4的能力可能并非下降了,而是转移了。kzA品论天涯网

这就导致我们使用“最基础的”GPT-4提问时,它已经不会再直接调用各种“专家模型”帮我们解答了,强大的专家能力都被路由到各类插件和诸如代码解释器这样的集成功能上了。kzA品论天涯网

不过说到底,这也算降本增效的一种手段。kzA品论天涯网

当然,也有想法认为,OpenAI这是为了推广插件和新功能才故意削减了GPT-4的基础能力。kzA品论天涯网


kzA品论天涯网

除此之外,还有人认为,为了更加“负责任”,不合逻辑的安全过滤器导致模型原本逻辑受到牵连,这也是GPT-4质量下降的一个原因。kzA品论天涯网


kzA品论天涯网

普林斯顿教授实名反对kzA品论天涯网

值得注意的是,不管网友的猜测听起来多么有理有据,OpenAI其实一直都在否认,声称他们并未采取任何措施导致模型质量下降。kzA品论天涯网

与此同时,另一波学者和网友恰好也对这篇研究提出了质疑。kzA品论天涯网

来自普林斯顿大学的两位CS教授指出:kzA品论天涯网

这篇论文产生了“GPT-4变笨了”的误解,因为它只是简单显示了GPT-4行为的改变,而行为变化并不等同于能力下降。kzA品论天涯网

并且实验本身的评估也有问题,作者有误将模仿当作推理。kzA品论天涯网

为了说明自己的观点,他们直接开了一篇博客。kzA品论天涯网


kzA品论天涯网

以判断质数问题为例,他们发现,评估给出的500个数字全是质数。这个问题就大了,它意味着正确答案始终是“yes”,模型就可能产生了随机模仿的能力(也就是照着之前的正确答案无脑抄下去)。kzA品论天涯网

因为事实证明,在大多数情况下,没有一个模型会真正一一执行“判断数字能否被整除”的算法——他们只是假装做了。kzA品论天涯网

比如下面这个3月份GPT-4的快照,它只是列了一堆待检查的数字,然后没有一一去除就直接给出“19997是质数”的回答。kzA品论天涯网


kzA品论天涯网

也就是说,3月份的GPT-4可能是无脑答对的,其表现并不能证明其数学能力;相反,也就不能证明6月份的GPT-4不行了(可能本来就是这个水平)。kzA品论天涯网

为了进一步证明自己的看法,教授们用500个合数测试了模型,结果是3月版本的GPT-4几乎总是猜测这些数字是质数,而6月版本则几乎认为是合数。kzA品论天涯网

——评估数据一换,结果就完全不同,这足以说明原作者的结论并不算立得住了。kzA品论天涯网


kzA品论天涯网

除此之外,在下降最多的代码编写能力方面,教授们也认为,作者只是检查代码是否可以直接执行,而不评估其正确性的方式,这种方式也同样草率。kzA品论天涯网

这意味着新GPT-4试图提供更多帮助的能力被抵消了。kzA品论天涯网

以上这些观点,均得到了英伟达AI科学家JimFan的支持,他表示:kzA品论天涯网

这也让我想到了GPT-4满分拿下MIT数学本科考试那篇论文。(被质疑造假,数据和评估方式都有问题)kzA品论天涯网

但他认为,这都不重要,重要的是大家一起来battle。kzA品论天涯网


kzA品论天涯网

所以,你认为GPT-4到底变笨了没?kzA品论天涯网

论文地址:https://arxiv.org/abs/2307.09009kzA品论天涯网

参考链接:kzA品论天涯网

[1]https://twitter.com/DwayneCodes/status/1681617375437922309kzA品论天涯网

[2]https://www.aisnakeoil.com/p/is-gpt-4-getting-worse-over-timekzA品论天涯网

[3]https://twitter.com/DrJimFan/status/1681771572351369216kzA品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]