就在OpenAI洽谈规模高达1000亿美元的史无前例融资轮之际,其在业务运营层面的多项关键优化成果足以引以为傲。尽管算力总成本占营收的比重依旧居高不下,但在为支撑ChatGPT订阅业务、向企业客户出售模型使用权而投入的每一分服务器运营成本中,公司正实现更高的营收回报。
据一位了解该公司财务状况的人士透露,OpenAI面向付费用户的算力利润率——即扣除为付费用户运行人工智能模型的成本后剩余的营收占比——已从去年年末的约52%、2024年1月的约35%,跃升至今年10月的约70%。
据《TheInformation》对其财务数据的分析,与之形成对比的是,竞争对手Anthropic去年的算力利润率约为负90%。该分析显示,Anthropic有望在今年年底将这一利润率提升至约53%,而其最乐观的预测显示,明年该指标或将达到68%。
不过,从整体来看,Anthropic的预测数据表明,若将面向非付费用户的人工智能模型运行成本以及模型训练成本纳入考量,该公司的综合服务器运营效率将超越OpenAI。OpenAI拥有数亿免费聊天机器人用户,未来需通过广告投放或购物返佣的方式实现这部分用户的商业化变现,以弥补这一效率差距。而Anthropic旗下聊天机器人的免费用户规模则要小得多。
Anthropic于今年夏季预计,2025年至2028年期间,公司在算力领域的总投入或将高达600亿美元,其中涵盖新人工智能模型的研发成本。该预测尚未计入近期与谷歌、微软达成的服务器租赁相关协议。同期,OpenAI预计将在服务器方面投入2200亿美元。
OpenAI在服务器上的巨额投入,反映出公司领导层的核心判断:服务器供应短缺是制约公司发展,以及通往通用人工智能道路上的最大挑战。通用人工智能,即具备自动化完成大部分高经济价值任务能力的人工智能。
“如果没有充足的算力支撑,我们根本无法推进相关研发。当前我们正面临严重的算力瓶颈。”该公司首席执行官山姆・奥特曼在周四发布的一期播客采访中表示,“如果算力规模翻倍,我认为公司当前的营收也能随之翻倍。”奥特曼并未就此展开进一步阐述。
对于有意投资OpenAI的潜在投资者而言,他们或许会迫切关注该公司付费用户相关利润率的任何改善迹象,因为付费套餐利润率的提升,有望为免费用户的运营成本提供补贴。即便如此,70%的算力利润率仍远低于上市软件公司的同类利润率水平——这些企业能够以极低的成本,为新增用户(包括免费用户)提供服务。
OpenAI还面临另一个挑战,其最大的聊天机器人竞争对手正是谷歌。谷歌采用自研的张量处理单元这一定制化服务器芯片,有效降低了运营成本;而OpenAI使用的则是价格高昂的英伟达服务器芯片。据《TheInformation》报道,OpenAI领导层据此认为,谷歌的人工智能运营效率要远高于自身。这意味着,谷歌在推动免费用户商业化变现方面承受的压力会小得多。
今年年初,OpenAI将降低人工智能产品的服务器运行成本(即模型推理成本)列为工作重点。据一位知情人士透露,今年2月,在DeepSeek推出一款新模型后,OpenAI内部启动了“红色警报”应急机制。DeepSeek方面宣称,其新模型的训练成本远低于OpenAI等企业开发的专有模型。
另一位知情人士表示,OpenAI算力利润率的提升得益于两大因素:一是全年算力租赁成本的持续下降,二是公司对人工智能模型进行了优化调整,使其运行效率更高。此外,OpenAI还推出了定价更高的订阅服务套餐,从部分客户群体中获得了更多营收。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】