OpenAI今日宣布与亚马逊AWS达成一项重磅AI云基础设施合作协议。此前,OpenAI与微软Azure有专属合作,为其提供AI及云端基础设施服务。由于OpenAI对于算力的需求巨大,微软此前放宽了合作条款,允许OpenAI主要用于研究和模型训练的基础设施自行搭建,但微软仍保留优先拒绝权(ROFR)。
上月,微软在与OpenAI扩大合作后宣布关键变化,允许OpenAI将非API产品(如ChatGPT和Sora)托管在任何云提供商上。
在最新条款下,OpenAI今日宣布与AWS达成多年合作,将自即日起在AWS上运行并扩展其核心AI工作负载。根据协议,OpenAI将在未来七年内向AWS支付约380亿美元。AWS实际上将通过AmazonEC2UltraServers向OpenAI租赁数千块NVIDIAGB200及GB300GPU。
AWS方面表示,预计OpenAI将在2026年底前用尽所有规划算力,2027年有望进一步扩容。AWS还强调,这些基础设施不仅可用于ChatGPT的推理,也可用于训练下一代模型。
AWS首席执行官MattGarman表示:“随着OpenAI不断突破AI可能性的边界,AWS业界领先的基础设施将成为其AI雄心的支柱。广泛且即时可用的算力优化,彰显AWS在支持OpenAI大规模AI工作负载方面的独特优势。”
此前,OpenAI的AI模型仅可在微软Azure平台提供。近期,OpenAI发布了首个可公开调用的权重模型,使AWS能通过AmazonBedrock为客户提供服务。亚马逊今日指出,OpenAI的gpt-oss系列模型,已成为AmazonBedrock最受欢迎的公有模型之一,包括Comscore、Peloton、ThomsonReuters等众多客户正在使用。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】