人工智能

微软开源 SliceGPT:大模型体量压缩25%左右,性能保持不变

字号+作者: 来源:站长之家 2024-02-11 13:18 评论(创建话题) 收藏成功收藏本文

划重点:⭐️ 可将大模型体量压缩25% 左右,性能保持不变。⭐️ SliceGPT 利用计算不变性简化和压缩模型。⭐️ 切片操作后的模型可以在消费级显卡上运行,无需额'...

划重点:Urc品论天涯网

⭐️ 可将大模型体量压缩25% 左右,性能保持不变。Urc品论天涯网

⭐️ SliceGPT 利用计算不变性简化和压缩模型。Urc品论天涯网

⭐️ 切片操作后的模型可以在消费级显卡上运行,无需额外代码优化。Urc品论天涯网

站长之家(ChinaZ.com)2月11日 消息:微软和苏黎世联邦理工学院的研究人员联合开源了 SliceGPT,该技术可以极限压缩大模型的权重矩阵,将模型体量压缩25% 左右,同时保持性能不变。实验数据显示,在保持零样本任务性能的情况下,SliceGPT 成功应用于多个大型模型,如 LLAMA-270B、OPT66B 和 Phi-2。Urc品论天涯网

image.pngUrc品论天涯网

SliceGPT 的核心技术在于利用计算不变性来简化和压缩模型。通过对每个权重矩阵应用正交矩阵变换,SliceGPT 实现了对模型的极限压缩。此外,切片操作后的模型可以直接在消费级显卡上运行,如 N 卡的4090、4080,无需进行额外的代码优化,使得部署更加便捷。Urc品论天涯网

在实验中,研究人员发现 SliceGPT 的切片技术非常简单高效,可以在几个小时内使用单个 GPU 完成模型压缩,无需复杂的细调过程。切片操作后的模型保持了高质量的生成任务性能,同时吞吐量得到提升,整体效果令人满意。Urc品论天涯网

SliceGPT 的开源为压缩大模型提供了一种新颖且有效的途径,将大幅节省部署资源同时保持模型性能不变。这一技术的推出,有望为广大开发者和企业提供更加便捷、高效的大模型应用解决方案。Urc品论天涯网

开源地址:https://github.com/microsoft/TransformerCompressionUrc品论天涯网

论文地址:https://arxiv.org/abs/2401.15024Urc品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章