人工智能

PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

字号+作者: 来源:量子位公众号 2023-12-03 10:01 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 量子位 (ID:QbitAI),作者:西风 ,授权站长之家转载发布。PyTorch团队让大模型推理速度加快了10倍。且只用了不到1000行的纯原生Py'...

声明:本文来自于微信公众号 量子位 (ID:QbitAI),作者:西风 ,授权站长之家转载发布。zVp品论天涯网

PyTorch团队让大模型推理速度加快了10倍zVp品论天涯网

且只用了不到1000行的纯原生PyTorch代码!zVp品论天涯网

项目名为GPT-fast,加速效果观感是这样婶儿的:zVp品论天涯网

图片zVp品论天涯网

通畅,属实通畅!zVp品论天涯网

重点是,团队直接放出了代码以及详细“教程”。还是简笔画版的那种,特别好理解。zVp品论天涯网

开发团队成员@Horace He表示:zVp品论天涯网

我们不把它看作是库或者框架,更希望大家能把它当成个例子,根据自己的需求“复制粘贴”。zVp品论天涯网

图片zVp品论天涯网

网友直接炸开锅,英伟达AI科学家Jim Fan评价道:zVp品论天涯网

这是自Andrej Karpathy发布的minGPT以来最棒的教程式repo之一!zVp品论天涯网

开源世界需要更多minGPT、GPT-Fast这样的项目!zVp品论天涯网

图片zVp品论天涯网

那么GPT-fast究竟是如何给大模型提速的?zVp品论天涯网

开盒大模型“加速包”zVp品论天涯网

总的来说,用到这几种方法:zVp品论天涯网

Torch.compile:一个专门为PyTorch模型设计的编译器,可以提升模型运行效率。zVp品论天涯网

GPU量化:通过减少计算的精度来加速模型的运算速度。zVp品论天涯网

推测性解码:使用一个较小的模型来预测较大模型的输出,以此加快大语言模型的运算。zVp品论天涯网

张量并行性:通过在多个硬件设备上分布模型的运算来加速处理速度。zVp品论天涯网

下面我们来一一展开。zVp品论天涯网

开发团队一开始使用简单的PyTorch来实现,但效果不佳(25.5tok/s):zVp品论天涯网

图片zVp品论天涯网

他们查看跟踪后发现,一个原因是推理性能由于CPU过多占用而受限。zVp品论天涯网

图片zVp品论天涯网

那么如何解决呢?zVp品论天涯网

可以想象这样一个场景,GPU是一个庞大的工厂(拥有大量可用的算力),而CPU则是一个小推车,来回为工厂“供货”。zVp品论天涯网

在很多情况下,CPU无法足够快地“喂”GPU。zVp品论天涯网

因此,开发团队建议给GPU更多的工作量,或者说一次性给它更大“块”的任务来处理。zVp品论天涯网

图片zVp品论天涯网

在推理过程中要做到这一点,可以引入torch.compilezVp品论天涯网

torch.compile能够捕获模型中更大的区域,并将其编译成单一的编译区域。特别是当以“reduce-overhead”模式运行时,它非常有效地减少了CPU的开销。zVp品论天涯网

效果立竿见影,性能直接提升了4倍,从25tok/s提高到107tok/s:zVp品论天涯网

图片zVp品论天涯网

接下来,开发团队想进一步提升速度,但遇到了内存带宽瓶颈。zVp品论天涯网

开发团队计算了模型的带宽利用率,结果已经达到了72%:zVp品论天涯网

图片zVp品论天涯网

也就是说进一步提高速度的空间可能有限。zVp品论天涯网

重新审视上面的方程式,团队发现虽然实际上不能改变模型参数量,也不能改变GPU的内存带宽(至少在不花更多钱的情况下),但可以改变存储每个参数所用的字节数zVp品论天涯网

图片zVp品论天涯网

这意味着,虽然无法改变模型的大小或者升级硬件来提高性能,但可以通过减少存储模型参数所需的数据量来提高效率。zVp品论天涯网

通常可以通过量化技术来实现,即减少表示每个参数所需的位数。zVp品论天涯网

图片zVp品论天涯网

由此,开发团队引入了下一个技术——int8量化zVp品论天涯网

采用int8权重量化减少了内存负载,进一步提升了性能(157.4tok/s):zVp品论天涯网

图片zVp品论天涯网

使用量化后还有一个问题:要生成100个token,必须加载(或调用)模型权重100次。频繁加载模型权重也会导致效率低下。zVp品论天涯网

图片zVp品论天涯网

乍一看,好像没有什么解决的法子,因为在自回归生成模式中存在着严格的序列依赖关系。zVp品论天涯网

但开发团队指出,通过利用推测性解码可以打破这种严格的序列依赖关系。zVp品论天涯网

再来打个比方,想象有一个资深工程师Verity,他在技术决策上总是正确,但编写代码的速度相对较慢。zVp品论天涯网

同时,还有一个初级工程师Drake,和Verity相反,不擅长技术决策,但编写代码的速度更快、成本也更低。zVp品论天涯网

图片zVp品论天涯网

那么如何利用不同人的优势来提高整体效率?zVp品论天涯网

方法很简单,先让Drake编写代码,并在此过程中做出技术决策。接下来,将代码交给Verity进行审查,不对的地方就让Drake重做。zVp品论天涯网

图片zVp品论天涯网

在Transformer模型推理中,大型的验证模型即为Verity角色,Drake则是一个更小的、能更快生成文本的草稿模型。zVp品论天涯网

开发团队使用草稿模型生成8个token,然后使用验证模型并行处理,丢弃不匹配的部分。zVp品论天涯网

由此一来,打破了串行依赖,再次提高速度。zVp品论天涯网

值得一提的是,推测性解码不会改变输出的质量。只要使用草稿模型生成token+验证这些token所需的时间少于单独生成这些token所需的时间,这种方法就是有效的。zVp品论天涯网

而且使用原生PyTorch实现这种技术实际上非常简单,整个实现过程只需要大约50行原生PyTorch代码。zVp品论天涯网

图片zVp品论天涯网

由于AMD也支持Triton和torch.compile后端,因此之前在Nvidia GPU上应用的所有优化也可以在AMD GPU上重新应用。zVp品论天涯网

开发团队观察到int8量化的加速从22tok/s达到102tok/s:zVp品论天涯网

图片zVp品论天涯网

之后开发团队又用了int4量化,进一步提升速度,但模型准确性有所下降。zVp品论天涯网

因此使用了分组量化和GPTQ降低权重大小。zVp品论天涯网

图片zVp品论天涯网

最后在保证准确性的前提下,速度提升至202.1tok/s:zVp品论天涯网

图片zVp品论天涯网

将以上技术结合使用,达到更高速度244.7tok/s:zVp品论天涯网

图片zVp品论天涯网

到目前为止,研发团队一直都是在单个GPU上提速。但其实很多情况下是可以使用多个GPU的。zVp品论天涯网

而使用多个GPU可以增加内存带宽,从而提高模型的整体性能。zVp品论天涯网

图片zVp品论天涯网

在选择并行处理策略时,需要在多个设备上分割一个token的处理过程,所以需要使用张量并行性。zVp品论天涯网

而PyTorch也提供了用于张量并行性的底层工具,可以与torch.compile结合使用。zVp品论天涯网

开发团队还透露也正在开发用于表达张量并行性的更高级别的API。zVp品论天涯网

然而,即使没有更高级别的API,添加张量并行性也很容易,150行代码即可实现,且不需要对模型进行任何改变。zVp品论天涯网

图片zVp品论天涯网

之前提到的所有优化都可以与张量并行性相结合。将这些优化结合起来,能够以55tokens/s的速度为Llama-70B提供int8量化。zVp品论天涯网

图片zVp品论天涯网

最后总结成果,忽略量化,仅用766行代码(model.py244行代码,generate.py371行代码,tp.py151行代码),就实现了快速推理、推测性解码和张量并行性。zVp品论天涯网

对于Llama-7B,使用compile+int4量化+推测性解码速度达到241tok/s。对于Llama-70B,通过加入张量并行性,达到80tok/s。zVp品论天涯网

这些性能都接近或超越了当前SOTA。zVp品论天涯网

参考链接:zVp品论天涯网

[1]https://pytorch.org/blog/accelerating-generative-ai-2/?utm_content=273712248&utm_medium=social&utm_source=twitter&hss_channel=tw-776585502606721024zVp品论天涯网

[2]https://twitter.com/DrJimFan/status/1730298947376443698zVp品论天涯网

[3]https://twitter.com/cHHillee/status/1730293330213531844zVp品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]