人工智能

Stability AI发布全新代码模型Stable Code 3B,媲美70亿Code Llama,没GPU也能跑

字号+作者: 来源:新智元公众号 2024-01-18 09:24 评论(创建话题) 收藏成功收藏本文

声明:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,授权站长之家转载发布。今天,Stability AI发布了自家在2024年的第一个模型——Stable Code3B。'...

声明:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,授权站长之家转载发布。1tx品论天涯网

今天,Stability AI发布了自家在2024年的第一个模型——Stable Code3B。1tx品论天涯网

图片1tx品论天涯网

顾名思义,Stable Code3B专注于代码能力,实际的表现也是非常亮眼。1tx品论天涯网

在仅仅3B参数的规模之下,达到了比肩Code Llama7B的效果。1tx品论天涯网

图片1tx品论天涯网

相较于Code Llama7B,Stable Code3B的体积减少了60%,但在多种编程语言上保持了相当的水准,在Python和C++的代码补全中甚至反超了Code Llama7B。1tx品论天涯网

另外,由于模型仅有3B大小,Stable Code3B可以在MacBook Air等普通笔记本电脑上实时运行,甚至没有独立GPU也可以!1tx品论天涯网

有网友将Stable Code3B称为Copilot的离线替代品,并希望能在VS Code上使用它。1tx品论天涯网

图片1tx品论天涯网

4个小时后,有网友发推表示自己在VS Code上更新了LLama Coder插件,可以支持最新的Stable Code3B模型。1tx品论天涯网

图片1tx品论天涯网

「它非常好!它很小,这意味着它可以在任何硬件上运行,并且运行速度非常快。」1tx品论天涯网

图片1tx品论天涯网

插件地址:https://t.co/Mn7onaDpge1tx品论天涯网

虽然模型名义上叫做Stable Code3B,但其实是一个2.7B 参数的纯解码器语言模型。1tx品论天涯网

除了模型比较轻量之外,Stable Code3B还支持高达100K的上下文大小,可以更方便、更精确地辅助编码。1tx品论天涯网

另外,模型参考了2023年StackOverflow开发者调查中,最受欢迎的18种编程语言,针对这18种语言进行了训练,提供了同等规模模型中最优秀的性能。1tx品论天涯网

C1tx品论天涯网

CPP1tx品论天涯网

Java1tx品论天涯网

JavaScript1tx品论天涯网

CSS1tx品论天涯网

Go1tx品论天涯网

HTML1tx品论天涯网

Ruby1tx品论天涯网

Rust1tx品论天涯网

Markdown1tx品论天涯网

Shell1tx品论天涯网

Php1tx品论天涯网

Sql1tx品论天涯网

R1tx品论天涯网

Typescript1tx品论天涯网

Python1tx品论天涯网

Jupyter-Clean1tx品论天涯网

RestructuredText1tx品论天涯网

在与同量级的竞品模型的比较中,Stable Code3B也几乎拿到了最好的成绩。1tx品论天涯网

图片1tx品论天涯网

目前,Stable Code3B已经加入了Stability AI的会员大礼包中,只要不涉及商用,用户都可以免费使用。1tx品论天涯网

图片1tx品论天涯网

Stable Code3B1tx品论天涯网

Stability AI从2023年底开始推出更小尺寸、但功能强大的模型,包括StableLM Zephyr3B等用于文本生成的模型。1tx品论天涯网

Stable Code3B的前代是Stability AI在8月份发布的Stable Code Alpha3B。1tx品论天涯网

Stable Code Alpha3B使用来自BigCode的堆栈数据集(v1.2)来训练基础模型,并使用Python、Go、Java、Javascript、C、Markdown和C++等流行语言进一步训练(共560B代码token)。1tx品论天涯网

建立基础模型后,开发人员针对特定用例对指令模型进行了调整,使用大约120000个Alpaca格式的代码指令/响应来训练模型,以提升解决复杂编程任务的能力。1tx品论天涯网

图片1tx品论天涯网

上图展示了Stable Code Alpha利用Pytorch库完成一个相对复杂的python文件,灰色部分为Stable Code的预测。1tx品论天涯网

参数细节:100K上下文,支持FIM

Stable Code3B 在256个英伟达A10040GB GPU(AWS P4d实例)的集群上进行训练,1tx品论天涯网

使用ZeRO-1的数据并行和张量并行,并依赖FlashAttention以及FlashAttention-2的SwiGLU和Rotary Embedding内核。1tx品论天涯网

模型的训练流程由类似于Code Llama的多阶段过程。1tx品论天涯网

第一步,以使用自然语言数据预训练的StableLM-3B-4e1t为基础(使用4万亿个token训练),对多个代码和代码相关数据集进行无监督微调,包括 CommitPack、GitHub Issues、StarCoder和其他数学数据集。1tx品论天涯网

图片1tx品论天涯网

模型在上述数据集上使用bfloat16进行了精确预训练,并使用AdamW进行了优化。1tx品论天涯网

第二步,使用16384个token的更长序列进一步微调模型,同时与Code Llama类似,使用一种称为旋转位置嵌入(RoPE)的技术进行优化,使上下文大小扩展到了100k个token。1tx品论天涯网

另外,新的Stable Code3B模型还支持Flash Attention2。1tx品论天涯网

图片1tx品论天涯网

作为改进版本,Stable Code3B不仅可以建议新的代码行,还可以填补现有代码中较大的缺失部分——称为中间填充功能(FIM)。1tx品论天涯网

图片1tx品论天涯网

Stable Code3B的模型架构如下表所示:1tx品论天涯网

图片1tx品论天涯网

旋转位置嵌入应用于前25%的head embedding,以提高模型的吞吐量;1tx品论天涯网

使用GPTNeoX Tokenizer的修改版本——NeoX,并添加特殊token来训练中间填充功能,比如<FIM_PREFIX>、<FIM_SUFFIX>和其他特殊token。1tx品论天涯网

在使用BigCode的评估工具测试的多种编程语言的MultiPL-E指标上,Stable Code3B展示了最先进的性能。1tx品论天涯网

图片1tx品论天涯网

上表中,Stable Code3B与同等规模的编码模型进行比较,在全部的六种编程语言中,都处于领先。1tx品论天涯网

图片1tx品论天涯网

而相比于体积大2倍多的Code Llama7B,Stable Code3B也拿到了3项胜利。1tx品论天涯网

Stability表示将发布一份完整的技术报告,包含更多细节和消融实验等。1tx品论天涯网

代码生成之战

目前,AI代码生成工具的市场竞争非常激烈,70亿参数的来自Meta的Code Llama7B被广大开发者所使用。1tx品论天涯网

而在30亿参数这个量级,StarCoder LLM(由 IBM、HuggingFace和ServiceNow共同开发的开源项目)广受欢迎。1tx品论天涯网

从测试成绩上来看,Stability AI的这个模型要优于StarCoder,不知道Stable Code3B会给Stability和市场带来怎样的变化。1tx品论天涯网

参考资料:1tx品论天涯网

https://stability.ai/news/stable-code-2024-llm-code-completion-release1tx品论天涯网

https://huggingface.co/stabilityai/stable-code-3b1tx品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章