当地时间周三(19日),开发AI图像生成工具StableDiffusion的创业公司StabilityAI宣布,发布并开源该团队训练的大语言模型StableLM。根据该团队的公告,目前StableLM的“阿尔法版本”中拥有30亿和70亿参数的模型已经可以从GitHub等开源平台上下载,后续还将推出150亿至650亿参数的版本。
(来源:StabilityAI)
与StableDiffusion类似,StableLM同样支持知识共享4.0协议,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。
这家公司在去年发布的StableDiffusion,使得AI“文生图”赛道成为AIGC领域商业化前景最为明朗的行业。
StabilityAI介绍称,StableLM可以生成文本和代码,并将助力一系列下游应用。这个模型建立在经典训练集ThePile的新实验训练集上,token数量翻了3倍至1.5万亿,公司也将在适当的时候发布数据集的详细信息。尽管公布出来的模型参数量很少,但数据集的丰富性使StableLM在会话和编程任务中表现出惊人的高性能,展现了小型高效模型如何通过适当的训练提供高性能。
(效果演示,来源:StabilityAI)
与GPT-4等超级大模型不同,StabilityAI的产品可供每一个人下载并部署在本地。这种做法也曾遭到一些非议,因为彻底开源意味着这些模型极有可能被用于恶意目的,例如撰写钓鱼链接的文案和协同软件攻击等。
对此,StabilityAI在周三的公告中也予以回应,强调开源模型是为了促进透明度和培养信任。研究人员可以“深入了解”以验证性能、研究可解释的技术、识别潜在风险并帮助制定保障措施。公共和私营部门可以针对自己的应用程序“微调”这些开源模型,无需共享敏感数据或放弃对AI功能的控制。
当然,如此“大方开源”的背后,StabilityAI也背负着沉重的营收压力。据新兴财经媒体Semafor4月初报道,StabilityAI去年底刚刚融到1亿美元的资金正接近“快速烧完”,公司CEOEmadMostaque的领导风格也遭到内部质疑。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】