人工智能

李开复:DeepSeek爆发说明闭源大模型是一条死路

字号+作者:新浪科技 来源:新浪科技 2025-03-29 16:15 评论(创建话题) 收藏成功收藏本文

2025中关村论坛年会期间,在“未来人工智能先锋论坛”上,创新工场董事长兼零一万物CEO李开复发表演讲。对于DeepSeek大爆发,他表示,DeepSeek破解并开源推理'...

2025中关村论坛年会期间,在“未来人工智能先锋论坛”上,创新工场董事长兼零一万物CEO李开复发表演讲。对于DeepSeek大爆发,他表示,DeepSeek破解并开源推理模型的思考训练过程,进一步缩小与美国的差距;高效工程效率,与OpenAI天量级融资的底层逻辑针锋相;开源模型能力追赶上闭源模型,进一步推进SOTA模型的商品化。6rQ品论天涯网

这表明闭源的路是一条死路,开源才能得到更好的发展;“DeepSeekMoment”大幅加速大模型在中国的全面落地。6rQ品论天涯网

不过他指出,DeepSeek模型很强,但企业落地需要解决三个问题:安全部署,快速实现私有化、安全部署的DeepSeek;应用实践,针对行业场景把DeepSeek用起来;行业定制,更懂行、能进化的DeepSeek。6rQ品论天涯网

为此,零一万物近期也进行了战略调整,全面拥抱DeepSeek,做企业级DeepSeek部署定制解决方案。6rQ品论天涯网

他表示,Al技术井喷的浪潮下,2025年会是Al应用大规模落地的元年。具体而言,过去两年大模型能力不断提升,在问答能力上已经远超人类;新技术持续突破,数字化Al与真实物理世界将进一步融合;大模型推理成本一年下降10倍,Al2.0普惠点将加速产业渗透;相较云计算,Al2.0应用层的爆发周期将缩短到两年内。6rQ品论天涯网

另外,随着ScalingLaw的放缓,超大预训练模型的直接商业价值在逐步降低。理由1,数据不足导致大模型之父预测传统预训练将终结;理由2,超大GPU群效率降低,容错问题等导致边际效应降低;理由3,超大预训练模型价格昂贵,速度缓慢;理由4,新推理ScalingLaw(慢思考)将带来更高回报。6rQ品论天涯网

他认为,超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教AI,新学习范式是Al教Al。6rQ品论天涯网


6rQ品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱service@pltyw.com

8
扫二维码添加收藏返回顶部