人工智能

智源发布FlagAttention算子集 适配多种大模型训练芯片

字号+作者: 来源:站长之家 2023-12-08 14:36 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)12月8日 消息:为了满足大模型对计算资源的需求,智源研究院开发了 FlagAttention 项目,旨在构建一套适配多种芯片的大模型核心算子集合'...

站长之家(ChinaZ.com)12月8日 消息:为了满足大模型对计算资源的需求,智源研究院开发了 FlagAttention 项目,旨在构建一套适配多种芯片的大模型核心算子集合。yW3品论天涯网

该项目选择使用 Triton 作为开发语言,通过 Triton 的开放性和易用性,使得 FlagAttention 不仅支持 NVIDIA GPU,还可以显著降低不同芯片之间模型适配的成本,提高大模型的训练与推理效率。yW3品论天涯网

微信截图_20231208143756.pngyW3品论天涯网

FlagAttention 目前包含两个算子:piecewise_attention 和 flash_attention。yW3品论天涯网

其中,piecewise_attention 是针对长文本模型的分段式 Attention 算子,而 flash_attention 是基于 Triton 的高效 Multihead Attention 实现。yW3品论天涯网

通过 FlagAttention,希望能够消除现有 AI 生态中的软件壁垒,让更广泛的模型用户能够使用到最新的模型优化技术。yW3品论天涯网

未来,FlagAttention 还将支持更多功能,并与其他芯片厂商合作,优化算子的性能和适配。yW3品论天涯网

项目地址:yW3品论天涯网

https://github.com/FlagOpen/FlagAttentionyW3品论天涯网

https://github.com/FlagOpen/FlagAttention/issuesyW3品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章