人工智能

文字序顺不响影GPT-4阅读理解,别的大模型都不行

字号+作者: 来源:量子位公众号 2023-12-04 13:46 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 量子位 (ID:QbitAI),作者:丰色 ,授权站长之家转载发布。研表究明,汉字序顺并不定一影阅响读(对于英文来说,则是每一个单词中的字母'...

声明:本文来自于微信公众号 量子位 (ID:QbitAI),作者:丰色 ,授权站长之家转载发布。crn品论天涯网

研表究明,汉字序顺并不定一影阅响读(对于英文来说,则是每一个单词中的字母顺序)。crn品论天涯网

现在,日本东京大学的一项实验发现,这个“定理”居然也适合GPT-4。crn品论天涯网

比如面对这样一段“鬼画符”,几乎里面每一个单词的每一个字母都被打乱:crn品论天涯网

oJn amRh wno het2023Meatsrs ermtnoTuna no duySan taatgsuAu ntaaNloi Gflo bClu, gnelcinhi ish ifsrt nereg ecatkjnad ncedos raecer jroam。crn品论天涯网

但GPT-4居然完美地恢复出了原始句子(红框部分):crn品论天涯网

图片crn品论天涯网

原来是一个叫做Jon Rahm的人赢得了2023年美国大师赛(高尔夫)的故事。crn品论天涯网

并且,如果你直接就这段乱码对GPT-4进行提问,它也能先理解再给出正确答案,一点儿也不影响阅读:crn品论天涯网

图片crn品论天涯网

对此,研究人员感到非常吃惊:crn品论天涯网

按理说乱码单词会对模型的tokenization处理造成严重干扰,GPT-4居然和人类一样不受影响,这有点违反直觉啊。crn品论天涯网

值得一提的是,这项实验也测试了其他大模型,但它们全都挑战失败——有且仅有GPT-4成功。crn品论天涯网

具体怎么说?crn品论天涯网

文字顺序不影响GPT-4阅读

为了测试大模型抗文字错乱干扰的能力,作者构建了一个专门的测试基准:Scrambled Bench。crn品论天涯网

它共包含两类任务:crn品论天涯网

一是加扰句子恢复(ScrRec),即测试大模型恢复乱序句子的能力。crn品论天涯网

它的量化指标包括一个叫做恢复率(RR)的东西,可以简单理解为大模型恢复单词的比例。crn品论天涯网

二是加扰问答(ScrQA),测量大模型在上下文材料中的单词被打乱时正确理解并回答问题的能力。crn品论天涯网

由于每个模型本身的能力并不相同,我们不好直接用准确性来评估这一项任务,因此作者在此采用了一个叫做相对性能增益(RPG)的量化指标。crn品论天涯网

具体测试素材则选自三个数据库:crn品论天涯网

一个是RealtimeQA,它每周公布当前LLM不太可能知道的最新消息;crn品论天涯网

第二个是DREAM(Sun et al.,2019),一个基于对话的多项选择阅读综合数据集;crn品论天涯网

最后是AQuARAT,一个需要多步推理才能解决的数学问题数据集。crn品论天涯网

对于每个数据集,作者从中挑出题目,并进行不同程度和类型的干扰,包括:crn品论天涯网

1、随机加扰(RS),即对每一个句子,随机选择一定比例(20%、50%、100%)的单词,对这些单词中的所有字母进行打乱(数字不变)。crn品论天涯网

2、保持每个单词的第一个字母不变,剩下的随意排列(KF)。crn品论天涯网

3、保持每个单词的首字母和最后一个字母不变,剩下的随机打乱(KFL)。crn品论天涯网

参与测试的模型有很多,文章正文主要报告了以下几个:crn品论天涯网

text-davinci-003、GPT-3.5-turbo、GPT-4、Falcon-180b和Llama-2-70b。crn品论天涯网

首先来看不同干扰类型的影响。crn品论天涯网

如下图所示:crn品论天涯网

在KFL设置中(即首尾字母不变),不管是加扰句子恢复还是加扰问答任务,模型之间的性能差距都不大。crn品论天涯网

然而,随着干扰难度越来越高(变为KF和RS后),模型的性能都迎来显著下降——除了GPT-4。crn品论天涯网

具体而言,在加扰句子恢复(ScrRec)任务中,GPT-4的恢复率始终高于95%,在加扰问答(ScrQA)任务中,GPT-4的相对准确性也都始终维在85%-90%左右。crn品论天涯网

相比之下,其他模型有的都掉到了不足20%。crn品论天涯网

图片crn品论天涯网

其次是不同加扰率的影响。crn品论天涯网

如下图所示,可以看到,在加扰句子恢复(ScrRec)任务中,随着一个句子中被干扰的单词数量越来越多,直至100%之后,只有GPT-3.5-turbo和GPT-4的性能没有显著变化,当然,GPT-4还是比GPT-3.5优先了很大一截。crn品论天涯网

图片crn品论天涯网

而在加扰问答(ScrQA)任务中,随着句子中被打乱的单词数量越来越多,所有模型性能都出现了都显著下降,且差距越来越大。crn品论天涯网

但在其中,GPT-4还能以87.8%的成绩保持遥遥领先,并且下降幅度也是最轻微的。crn品论天涯网

所以简单总结来说就是:crn品论天涯网

大多数模型都可以处理一定比例的干扰文本,但到极端程度时(比如单词全部打乱),就只有GPT-4表现最好,只有GPT-4面对完全混乱的词序,几乎不怎么被影响。crn品论天涯网

GPT-4还擅长分词

在文章最后,作者指出:crn品论天涯网

除了打乱单词字母顺序之外,还可以研究插入字母、替换字母等情况的影响。crn品论天涯网

唯一的问题是,由于GPT-4为闭源,大家也不好调查为什么GPT-4可以不被词序影响。crn品论天涯网

有网友发现,除了本文所证明的情况,GPT-4也非常擅长将下面这一段完全连起来的英文:crn品论天涯网

UNDERNEATHTHEGAZEOFORIONSBELTWHERETHESEAOFTRAcrn品论天涯网

NQUILITYMEETSTHEEDGEOFTWILIGHTLIESAHIDDENTROVcrn品论天涯网

EOFWISDOMFORGOTTENBYMANYCOVETEDBYTHOSEINTHEKNcrn品论天涯网

OWITHOLDSTHEKEYSTOUNTOLDPOWERcrn品论天涯网

正确分隔开来:crn品论天涯网

Underneath the gaze of Orion’s belt, where the Sea of Tranquility meets the edge of twilight, lies a hidden trove of wisdom, forgotten by many, coveted by those in the know. It holds the keys to untold power.crn品论天涯网

按理来说,这种分词操作是一件很麻烦的事儿,通常需要动态编程等操作。crn品论天涯网

GPT-4表现出来的能力再次让这位网友感到惊讶。crn品论天涯网

他还把这段内容放进了OpenA官方的tokenizer工具,发现GPT-4看到的token其实是这样的:crn品论天涯网

UNDER NE AT HT HE GA Z EOF OR ION SB EL TW HER ET HE SEA OF TRAcrn品论天涯网

这里面除了“UNDER”、“SEA”和“OF”之外,几乎剩下的所有token都看起来“毫无逻辑”,这更加使人费解了。crn品论天涯网

图片crn品论天涯网

对此,大伙是怎么看的呢?crn品论天涯网

参考链接:crn品论天涯网

[1]https://arxiv.org/abs/2311.18805crn品论天涯网

[2]https://news.ycombinator.com/item?id=38506140crn品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]