人工智能

刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁

字号+作者: 来源:​新智元公众号 2024-04-10 14:14 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。【新智元导读】初创团队Mistral AI再次放出一条磁力链,281GB文件解禁了'...

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。XVE品论天涯网

【新智元导读】初创团队Mistral AI再次放出一条磁力链,281GB文件解禁了最新的8x22B MoE模型。XVE品论天涯网

一条磁力链,Mistral AI又来闷声不响搞事情。XVE品论天涯网

图片XVE品论天涯网

281.24GB文件中,竟是全新8x22B MOE模型!XVE品论天涯网

图片XVE品论天涯网

全新MoE模型共有56层,48个注意力头,8名专家,2名活跃专家。XVE品论天涯网

而且,上下文长度为65k。XVE品论天涯网

图片XVE品论天涯网

网友纷纷表示,Mistral AI一如既往靠一条磁力链,掀起了AI社区热潮。XVE品论天涯网

对此,贾扬清也表示,自己已经迫不及待想看到它和其他SOTA模型的详细对比了!XVE品论天涯网

图片XVE品论天涯网

靠磁力链火遍整个AI社区XVE品论天涯网

去年12月,首个磁力链发布后,Mistral AI公开的8x7B的MoE模型收获了不少好评。XVE品论天涯网

图片XVE品论天涯网

基准测试中,8个70亿参数的小模型性能超越了多达700亿参数的Llama2。XVE品论天涯网

图片XVE品论天涯网

它可以很好地处理32k长度的上下文,支持英语、法语、意大利语、德语和西班牙语,且在代码生成方面表现出强大的性能。XVE品论天涯网

今年2月,最新旗舰版模型Mistral Large问世,性能直接对标GPT-4。XVE品论天涯网

不过,这个版本的模型没有开源。XVE品论天涯网

图片XVE品论天涯网

Mistral Large具备卓越的逻辑推理能力,能够处理包括文本理解、转换以及代码生成在内的复杂多语言任务。XVE品论天涯网

也就是半个月前,在一个Cerebral Valley黑客松活动上,Mistral AI开源了Mistral7B v0.2基础模型。XVE品论天涯网

图片XVE品论天涯网

这个模型支持32k上下文,没有滑动窗口,Rope Theta =1e6。XVE品论天涯网

图片XVE品论天涯网

现在,最新的8x22B MoE模型也在抱抱脸平台上上线,社区成员可以基于此构建自己应用。XVE品论天涯网

图片XVE品论天涯网

参考资料:XVE品论天涯网

https://twitter.com/MistralAI/status/1777869263778291896XVE品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]