人工智能

Meta科学家最新采访 揭秘Llama 3.1是如何炼成的

字号+作者: 来源:新智元 2024-07-29 07:34 评论(创建话题) 收藏成功收藏本文

最近,LatentSpace发布的播客节目中请来了Meta的AI科学家ThomasScialom。他在节目中揭秘了Llama3.1的一些研发思路,并透露了后续Llama4的更新方向。刚刚发'...

最近,LatentSpace发布的播客节目中请来了Meta的AI科学家ThomasScialom。他在节目中揭秘了Llama3.1的一些研发思路,并透露了后续Llama4的更新方向。刚刚发布的开源“巨无霸”Llama3.1虽然自带论文,但依旧激起了广大网友强烈的好奇心和求知欲。eJj品论天涯网

Llama3.1都使用了哪些数据?其中有多少合成数据?为什么不使用MoE架构?eJj品论天涯网

后训练与RLHF流程是如何进行的?模型评估是如何进行的?eJj品论天涯网

我们什么时候可以见到Llama4?Meta是否会发展agent?eJj品论天涯网

恰逢Llama3.1刚刚发布,Meta科学家就现身播客节目LatentSpace,秉持着开源分享的精神,对以上问题都作出了清晰的回答。eJj品论天涯网


eJj品论天涯网

受访者ThomasScialom现任Meta的人工智能研究科学家,领导了Llama2和Llama3的后训练,并参加了CodeLlama、Toolformer、Bloom、GAIA等多个项目。eJj品论天涯网


eJj品论天涯网

以下是采访内容的节选。eJj品论天涯网

Llama3.1研发思路eJj品论天涯网

如何决定参数规模eJj品论天涯网

其实LLM的参数规模的选择需要考虑多种因素,包括scalinglaw、训练时间、GPU和硬件的约束等等。eJj品论天涯网

而且,不能只考虑Meta所用的硬件,还有整个AI社区,并不是每个人都在使用H100,还有很多不同的GPU型号和显存大小。eJj品论天涯网

再加上,目前广泛应用于推理阶段的量化技术,比如可以用FP16或FP8精度,这会改变推理和训练/微调成本的比重。eJj品论天涯网

以上这些限制因素,都让模型规模的选择成为一个非常具有挑战性的问题。eJj品论天涯网

总体而言,着重考虑的是目前已有的算力,在ScalingLaw和训练token总量的限制内,我们进行了一些权衡,找到了一个有合适推理效率的平衡点。eJj品论天涯网

之所以做到405B这么大规模,其实原因很简单——我们想做出最好的模型,一个真正与GPT-4比肩的开源模型。(现在是GPT-4o了)虽然目前还没有完全达到目标,但差距正在逐渐缩小。eJj品论天涯网

正如小扎之前宣布的,Meta囤积了越来越多的GPU,因此下一代模型将继续扩展。eJj品论天涯网

对于网友们所说的,无法在家里运行Llama3.1,这很有可能是事实。但如果进行FP8量化,依旧可以用128k的上下文窗口在单节点上运行。eJj品论天涯网

从另一个角度来看,我们还是要寄希望于开源社区的力量。Llama1和Llama2刚刚发布时,大家同样认为模型太大了,但两周后它就能在树莓派上运行了。eJj品论天涯网

虽然不能确定Llama3.1也会和以前一样,但通过将模型开源,我们希望可以看到类似的趋势。eJj品论天涯网


eJj品论天涯网

重新审视ScalingLaweJj品论天涯网

我们所熟知的ScalingLaw主要关注两个维度,即模型权重和训练量,包括训练时的step、epoch和token总量等等。eJj品论天涯网

基本上,论文的发现就是,模型规模是重要因素。因此,GPT-3犯了一个错误——模型参数量远远超出了token总量的要求。eJj品论天涯网


eJj品论天涯网

论文地址:https://arxiv.org/pdf/2001.08361eJj品论天涯网

这也正是之后的Chinchilla所发现和强调的,相比最初的ScalingLaw,他们更强调了训练数据token总量的重要性。eJj品论天涯网


eJj品论天涯网

论文地址:https://arxiv.org/pdf/2203.15556eJj品论天涯网

Chinchilla论文想要找到“算力最优化”的训练方式,认为在有限算力的前提下,存在一个模型参数量和训练token数的最佳比率。eJj品论天涯网

如果你希望在论文的基准测试中得到最优模型,那么Chinchilla本身没有问题;但Meta要发布的旗舰模型还需要更高的推理效率。eJj品论天涯网

因此,我们选择增加训练的token数,并增加训练时长,让模型达到“过度训练”的状态。eJj品论天涯网

这不符合Chinchilla定律,也会付出额外的算力,但我们希望让模型有更好的推理表现,从而更多地应用于开源社区,因此需要做出一些超越Chinchilla定律的选择。eJj品论天涯网

事实上,这也是Llama1的研发人员所做的事情。我所说的“不要陷入Chinchilla陷阱”就是这个意思。eJj品论天涯网


eJj品论天涯网

模型架构eJj品论天涯网

相比Llama2,Llama3的架构没有太多变化,但是在扩展数据的规模和质量方面,我们作出了很多努力,数据集从2Ttoken增加到15Ttoken。eJj品论天涯网

架构方面,我认为将来会有更多改进,甚至不仅仅局限于Transformer。eJj品论天涯网

目前的Tranformer架构仍然缺少灵活性,比如,我认为对每个token使用等量的算力是没有意义的,因此还有很多研究的空间。eJj品论天涯网

关于“为什么不使用MoE架构”,这个是我经常听到的质疑,其中的原因有多个方面。eJj品论天涯网

我认为,稠密模型只是MoE的一个特定变体,你可以把它看作只有一个专家的MoE,因此这只是一个还没有优化的超参数而已。eJj品论天涯网

但我们目前正在进行一些工作,未来可能会在这个超参数上继续探索。eJj品论天涯网

关于合成数据eJj品论天涯网

关于数据,我的直觉是,公开互联网上充斥着过多文本垃圾,用这些token训练模型是对算力的浪费。eJj品论天涯网

在为Llama2抓取数据时,我们就使用Llama作为分类器,用于过滤出高质量的token,并打上主题标签,比如这段文本是和数学、法律还是政治有关,这样可以实现主题的均衡和多样性。eJj品论天涯网

Llama3的后训练过程完全没有使用人工书写的答案,仅依靠从Llama2获得的合成数据。eJj品论天涯网

我非常看好合成数据,而且随着模型性能提升,情况也会变得更好。eJj品论天涯网

LLM的评估与改进eJj品论天涯网

目前的模型研发有一个趋势,就是针对基准分数进行模型的后训练改进。eJj品论天涯网

模型评估是一个开放的研究问题,目前还没有很好的答案,尤其是面对同一个模型有如此多的功能。eJj品论天涯网

当你试图提升模型在某个基准上的分数时,这就不再是一个好的基准了,因为可能会存在过拟合,分数提升未必可以迁移成为相似的能力。eJj品论天涯网

因此,语言模型的评估,尤其是训练后评估,是一个非常困难的问题。我们尝试过很多方法,包括用奖励模型,model-as-a-judge、使用多样化的提示、多样化的基准测试……eJj品论天涯网

我感觉为Llama2进行评估要比今天容易多了,当时的模型性能比现在相差很多。现在的模型变得如此好,以至于很难找到能击溃模型的合适prompt,进行性能比较并查看边界情况。eJj品论天涯网

比较模型的其中一个好办法就是进行多轮RLHF。每次上传新模型时,只需在所有带标注的prompt上进行采样,让新旧模型分别回答,再自动计算胜率。eJj品论天涯网

Llama4与AgenteJj品论天涯网

Meta已经在6月开始训练Llama4模型,而且重点可能围绕agent技术,并且已经在Toolformer等agent工具上进行了一些工作。eJj品论天涯网


eJj品论天涯网

论文地址:https://arxiv.org/pdf/2302.04761eJj品论天涯网

但同时也要意识到,如果没有一个优秀的指令模型,Toolformer扩展和未来能力也会大大受限,因此我们研发了Llama2和Llama3。eJj品论天涯网

此外,Meta也曾在一年前发布GAIA基准,用于评估模型解决现实世界问题的能力。eJj品论天涯网

在这个基准的排行榜上,基于GPT-3的agent系统得分几乎接近于零,但GPT-4驱动的系统就有很好的成绩,比如30%~40%,这其中就体现出模型的智力差距。eJj品论天涯网

在我看来,agent的各种能力,比如函数调用、遵循复杂指令、预先规划、多步骤推理等等,和模型的这种智力差距是类似的。eJj品论天涯网


eJj品论天涯网

论文地址:https://arxiv.org/pdf/2311.12983
eJj品论天涯网

现在有了足够强大的Llama3,我将重新专注于agent的构建。如果能实现良好的模型互联,形成一个复杂的agnent系统,将获得几个数量级的扩展,从而实现规划、回溯、网页导航、代码执行等多种功能。eJj品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]