人工智能

谷歌论文提前揭示o1模型原理:AI大模型竞争或转向硬件

字号+作者: 来源:澎湃新闻 2024-09-18 23:47 评论(创建话题) 收藏成功收藏本文

OpenAI最强模型o1的护城河已经没有了?仅在OpenAI发布最新推理模型o1几日之后,海外社交平台Reddit上有网友发帖称谷歌Deepmind在8月发表的一篇论文内容与o'...

OpenAI最强模型o1的护城河已经没有了?仅在OpenAI发布最新推理模型o1几日之后,海外社交平台Reddit上有网友发帖称谷歌Deepmind在8月发表的一篇论文内容与o1模型原理几乎一致,OpenAI的护城河不复存在。p1P品论天涯网

澎湃科技(www.thepaper.cn)注意到,谷歌DeepMind团队于今年8月6日发布上述论文,题为《优化LLM测试时计算比扩大模型参数规模更高效》(ScalingLLMTest-TimeComputeOptimallycanbeMoreEffectivethanScalingModelParameters)。p1P品论天涯网


p1P品论天涯网

谷歌DeepMind团队于今年8月6日发布的论文p1P品论天涯网

在这篇论文中,研究团队探讨了大模型(LLM)在面对复杂问题时,是否可以通过增加测试时的计算量来提高决策质量。这项研究表明,增加测试时(test-timecompute)计算比扩展模型参数更有效。基于论文提出的计算最优(compute-optimal)测试时计算扩展策略,规模较小的基础模型在一些任务上可以超越一个14倍大的模型。p1P品论天涯网


p1P品论天涯网

无独有偶,另一篇由谷歌和斯坦福大学研究人员于今年1月发表的论文《思维链赋能Transformer解决本质上的串行问题》(ChainofThoughtEmpowersTransformerstoSolveInherentlySerialProblems)也提出了类似的观点。该论文探讨了“思维链”(ChainofThought,简称CoT)技术,旨在突破Transformer模型在串行推理方面的限制。p1P品论天涯网

传统的Transformer模型擅长并行计算,但在处理需要逻辑推理的复杂问题时表现欠佳。CoT的核心思想是让模型模拟人类的思考方式,通过生成一系列中间推理步骤,来解决复杂问题。p1P品论天涯网

OpenAI近期发布的o1模型,或正是上述理念的实践。o1模型在给出答案之前,会生成一系列中间推理步骤,不断完善自己的思维过程,尝试不同的策略,并能识别自身错误。随着更多的强化学习和思考时间,o1的性能持续提升。p1P品论天涯网

有网友表示,“所有的秘密突破和算法最终都会随着顶尖开发者在行业内的流动而传播到其他公司和开源社区。”谷歌也表示没有人拥有护城河,这也促使OpenAI将o1-mini的速度提高7倍,每天都能使用50条;o1-preview则提高每周50条。p1P品论天涯网

有网友评论道:“唯一可能形成护城河的是硬件,至少在可预见的未来是这样。”也有人认为,如果AI大模型公司无法解决对显存的依赖,英伟达可能会直接掌控谁能够获得计算能力。而如果微软或谷歌开发出在自研芯片上运行速度快10倍的模型,情况也会变化。p1P品论天涯网

目前,英伟达在AI大模型算力的分配上占据主导地位。值得注意的是,OpenAI近期也被曝出其首款芯片计划,采用台积电最先进的A16级工艺,专为Sora视频应用打造。这些迹象表明,大模型的竞争已不仅局限于模型本身,硬件能力也成为关键因素。在AI领域,谁能拥有更强大的算力,谁就可能在下一阶段的竞争中占据优势。p1P品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]