“随着AI从1.0进入2.0大模型技术阶段,我们迎来了有史以来最重要的科技革命和平台革命。”零一万物CEO、创新工场董事长李开复日前在接受记者采访时表示,算力作为AI 2.0发展的关键环节,需要采用更务实、更统筹优化的方法来应对当前的挑战。未来,期待着人工智能尖端企业能够更广泛、深入参与到国家AI算力建设中来,各方优势资源充分融合,更好赋能AI大模型产业发展。
“多地正在积极建设超算中心,打造国家级的算力底座,促进超算算力一体化运营,是非常好的探索和尝试。”李开复认为,超算中心汇聚云计算、大数据和人工智能研发等多重功能及要素,聚集了丰富的AI发展资源和动能,未来可期。如何更好发挥各方优势构建超强AI算力,或可从以下四个方面入手:
首先,遵循规模定律(Scaling Law),提升计算效率。大模型规模定律的重要性在这个时代得以凸显——人类能够用更多计算和数据不断增加大模型的智慧,这条被多方验证的路径还在推进中,还远没有触达天花板。
同时,大模型的智慧来自于接近无损的压缩,这点也非常重要。因为规模定律过程中不能盲目堆更多的GPU,所以需要有一个方法评估大模型企业有没有越做越好或者哪个方法做得更好。遵循规模定律也成为当前诸多大模型企业规模化应用大模型时尝试突破算力限制,将计算效率最优化的有效途径之一。
零一万物内部有严谨的相关方法论,且用压缩的理念去评估,让以往漫无目的训模过程变得更系统、更科学并有数学根据,较大提升了自身大模型的计算效率。
第二,加强“模基共建”,寻找算力最优解。目前,发达国家AI领域GPU的数量和规模是我国的数倍左右,面对这样的差距,我们需要采取更务实有效的举措——自研AI Infra(AI Infrastructure人工智能基础架构技术)。AI Infra主要涵盖大模型训练和部署提供各种底层技术设施。在国外一线大厂,最高效训练模型的方式是算法与Infra共建,不仅关注模型架构,而是从优化底层训练方法出发。零一万物自成立起便将自研AI Infra设立为重要方向,选择跟国际一线梯队齐平的“模基共建”战略,模型团队和AI Infra团队高度共建,人数比为1:1。零一万物在此基础上自研了人工智能基础架构技术,从底层优化训练方法,较大节省成本,找到了当前条件下算力运用的优质路径。从零一万物国际领先的千亿参数大模型“Yi-Large”训练过程来看,经优化后,Yi-Large千亿参数模型的训练成本同比大幅下降。
第三,打造“模应一体”,探寻TC-PMF(Product-Market-Technology-Cost Fit,技术成本×产品市场契合度)。在大模型时代,模型训练和推理成本构成了几乎每个创业公司都必须要面对的增长陷阱。用户增长需要优质的应用,而优质应用离不开强大的基座模型,强大基座模型的背后往往是高昂的训练成本,接着还需要考虑随用户规模增长的推理成本。能够率先察觉、并达到 TC-PMF这一普惠点的企业无疑会占尽先机。要做到这一点,模型、AI Infra、应用这“三位一体”的优异能力缺一不可。基于此,零一万物将“模应一体”与“模基共建”一同列为公司的顶层核心战略,在人才密度和协作方式上,也快速打磨出一整套能够融合不同专业的优秀人才跨界共创的组织体系。基座模型、AI Infra、API、C端应用AI助手“万知”,这些全栈式业务部署,使得零一万物能够以更全面的视野来看待大模型时代的增长陷阱,也为其在应用层的商业落地带来了更大发挥空间。
第四,充分发挥尖端AI企业示范优势。李开复认为,我国在发展AI算力等领域具有一定优势。除了丰富的大数据资源外,我国的社会资源动员力、融合度较高,在科研、应用领域的研发效率、落地效果较好。同时,我国有非常多卓越的互联网企业和现象级App应用,比如抖音、美团等等,这些企业在AI算力、算法领域的探索有用户支持作为基础,企业更易研发出更具有前瞻性、应用性的应用,是AI大模型产业发展的重要推力。“未来,希望国家级超算中心、国内可靠尖端AI企业、多领域企业间能够增强资源的整合利用,充分发挥各方优势,更好融合发展,为AI更好赋能千行百业发展再添新动能。”
(责任编辑:刘朋)
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】