人工智能

破解36年前魔咒!Meta推出反向训练大法消除大模型「逆转诅咒」

字号+作者: 来源:​新智元公众号 2024-04-09 14:50 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。【新智元导读】大语言模型的「逆转诅咒」,被解开了。近日,来自Meta FAIR'...

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。nqB品论天涯网

【新智元导读】大语言模型的「逆转诅咒」,被解开了。近日,来自Meta FAIR的研究人员推出了反向训练大法,让模型从反方向上学到了事实之间的逻辑,终于改进了这个困扰人们已久的问题。nqB品论天涯网

大语言模型的「逆转诅咒」,被解开了!nqB品论天涯网

这个诅咒在去年9月首次被发现,一时间引起LeCun、Karpathy、马库斯等一众大佬的惊呼。nqB品论天涯网

图片nqB品论天涯网

因为风光无两、不可一世的大模型竟存在着“阿克琉斯之踵”:一个在「A是B」上训练的语言模型,并不能正确回答出「B是A」。nqB品论天涯网

比如下面这个例子:在LLM明知道「汤姆·克鲁斯的母亲是Mary Lee Pfeiffer」的情况下,却无法答出「Mary Lee Pfeiffer的孩子是汤姆·克鲁斯」。nqB品论天涯网

图片nqB品论天涯网

——这可是当时最先进的GPT-4,结果连小孩子都具备的正常逻辑思维,LLM却做不到。nqB品论天涯网

立于海量的数据之上,记住了几乎超过所有人类的知识,却表现得如此呆板,取得了智慧之火,却永远被囚禁于这个诅咒之中。nqB品论天涯网

图片nqB品论天涯网

论文地址:https://arxiv.org/pdf/2309.12288v1.pdfnqB品论天涯网

这事一出,全网一片哗然。nqB品论天涯网

一方面,网友们表示,大模型真傻,真的。单知道「A是B」,却不知道「B是A」,自己终于保住了作为人类的尊严。nqB品论天涯网

而另一方面,研究人员们也开始对此展开研究,快马加鞭解决这个重大挑战。nqB品论天涯网

近日,来自Meta FAIR的研究人员推出了反向训练大法来一举解决LLM的“逆转诅咒”。nqB品论天涯网

图片nqB品论天涯网

论文地址:https://arxiv.org/pdf/2403.13799.pdfnqB品论天涯网

研究人员首先观察到,LLMs从左到右以自回归的方式进行训练,——这可能是导致逆转诅咒的原因。nqB品论天涯网

那么,如果以从右到左的方向来训练LLM(逆向训练),就有可能让模型在反方向上看到事实。nqB品论天涯网

可以将反向文本视为第二语言,通过多任务处理或跨语言预训练,来利用多个不同的来源。nqB品论天涯网

研究人员考虑了4种反向类型:标记反转、单词反转、实体保留反转和随机段反转。nqB品论天涯网

标记和单词反转,通过将序列分别拆分为标记或单词,并颠倒它们的顺序以形成新序列。nqB品论天涯网

实体保留反转,在序列中查找实体名称,并在其中保留从左到右的单词顺序,同时进行单词反转。nqB品论天涯网

随机段反转,将标记化的序列分割成随机长度的块,然后保留每个块内从左到右的顺序。nqB品论天涯网

研究人员在1.4B和7B的参数规模上,测试了这些反转类型的有效性,结果表明,实体保留和随机分段反向训练可以减轻逆向诅咒,甚至在某些情况下完全消除它。nqB品论天涯网

此外,研究人员还发现,与标准的从左到右训练相比,训练前逆转的方式使模型的表现有所提高,——所以反向训练可以作为一种通用的训练方法。nqB品论天涯网

反向训练大法nqB品论天涯网

逆向训练包括获取具有N个样本的训练数据集,并构造反向样本集REVERSE(x)。nqB品论天涯网

函数REVERSE负责反转给定的字符串,具体做法如下:nqB品论天涯网

单词反转 :每个示例首先被拆分为单词,然后在单词级别反转字符串,用空格将其连接在一起。nqB品论天涯网

实体保留反转:对给定的训练样本运行实体检测器,将非实体也拆分为单词。然后将非实体的单词进行颠倒,而表示实体的单词保留原有词序。nqB品论天涯网

随机段反转:这里没有使用实体检测器,而是尝试使用均匀采样,将序列随机分割成大小为1到k个token之间的句段,然后颠倒这些句段,但保持每个句段内的词序,之后,这些句段使用特殊标记[REV]连接。nqB品论天涯网

图片nqB品论天涯网

上表给出了在给定字符串上,不同反转类型的示例。nqB品论天涯网

此时,语言模型仍然从左到右进行训练,在单词反转的情况下,就相当于从右到左预测句子。nqB品论天涯网

逆向训练涉及对标准和反向示例的训练,因此训练token的数量增加了一倍,同时正向和反向训练样本都混合在一起。nqB品论天涯网

逆向转换可以看作是模型必须学习的第二种语言,请注意,在反转的过程中,事实之间的关系保持不变,模型可以从语法中判断它是处于正向还是反向语言预测模式。nqB品论天涯网

逆向训练的另一个角度可以由信息论来解释:语言建模的目标是学习自然语言的概率分布nqB品论天涯网

反向任务训练测试

实体对映射nqB品论天涯网

首先创建一个简单的基于符号数据集,以研究受控环境中的反转诅咒。nqB品论天涯网

以一对一的方式随机配对实体a和b,训练数据包含所有(a→b)映射对,但仅包含一半的(b→a)映射,另一半作为测试数据。nqB品论天涯网

模型必须从训练数据中推断规则a→b ⇔ b→a,然后将其推广到测试数据中的对。nqB品论天涯网

图片nqB品论天涯网

上表展示了符号反向任务的测试准确率(%)。尽管这项任务很简单,但标准语言模型训练完全失败了,这表明仅靠扩展不太可能解决。nqB品论天涯网

相比之下,反向训练几乎可以解决两个单词实体的问题,但随着实体变长,其性能会迅速下降。nqB品论天涯网

单词反转适用于较短的实体,但对于具有较多单词的实体,实体保留反转是必要的。当最大段长度k至少与实体一样长时,随机段反转表现良好。nqB品论天涯网

恢复人名nqB品论天涯网

图片nqB品论天涯网

上表展示了确定人全名的反转任务,当仅给出出生日期确定一个人的全名时,反转任务的准确性仍然接近于零,——这是因为在本文采用的实体检测方法中,日期被视为三个实体,因此在反转中不会保留它们的顺序。nqB品论天涯网

如果将反转任务简化为仅确定人的姓氏,则单词级别的反转就足够了。nqB品论天涯网

另一个可能会令人感到惊讶的现象是,实体保留方法可以确定该人的全名,但不能确定该人的姓氏。nqB品论天涯网

这是一个已知的现象:语言模型可能完全无法检索知识片段的后期标记(比如姓氏)。nqB品论天涯网

现实世界事实nqB品论天涯网

这里作者训练了一个Llama-214亿参数模型,在从左到右方向上训练一个2万亿个token的基线模型。nqB品论天涯网

相比之下,逆向训练仅使用1万亿token,但使用相同的数据子集在从左到右和从右到左两个方向上进行训练,——两个方向合起来是2万亿个token,在计算资源上做到公平公正。nqB品论天涯网

为了测试对现实世界事实的反转能力,研究人员使用了一个名人任务,其中包含“诸如某个名人的母亲是谁”之类的问题,同时还包含更具挑战性的反向问题,比如“某个名人的父母的孩子是谁”。nqB品论天涯网

图片nqB品论天涯网

结果如上表所示。研究人员对每个问题的模型进行多次抽样,如果其中任何一个包含正确答案,则将其视为成功。nqB品论天涯网

一般来说,由于模型在参数数量方面很小,预训练有限,并且缺乏微调,因此准确性通常相对较低。然而,反向训练的表现更加优秀。nqB品论天涯网

36年前的预言

1988年,Fodor和Pylyshyn在《认知》刊物上发了一篇关于思维的系统性的文章。nqB品论天涯网

图片nqB品论天涯网

如果你真的理解这个世界,那你就应该能够理解a相对于b的关系,也能理解b相对于a的关系。nqB品论天涯网

即使是非语言认知生物,也应该能够做到这一点。nqB品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]