站长之家(ChinaZ.com) 12 月 7 日消息:在 AMD 周三的投资者活动上,最新的人工智能芯片——Instinct MI300X">Meta、OpenAI 和微软宣布,他们将使用 AMD 最新的人工智能芯片——Instinct MI300X。这是迄今为止科技公司寻找替代 Nvidia 昂贵图形处理器的最大迹象,Nvidia 的这些处理器一直是创建和部署人工智能程序(如 OpenAI 的 ChatGPT)的关键。
如果 AMD 的最新高端芯片对于构建和服务 AI 模型的技术公司和云服务提供商来说足够好,当它明年初开始出货时,它可能会降低开发 AI 模型的成本,并对 Nvidia 日益增长的 AI 芯片销售施加竞争压力。
AMD 首席执行官苏姿丰周三表示:「所有的兴趣都在云计算的大型计算机硬件和大型 GPU 上。」
AMD 表示,MI300X 基于一种新架构,这通常会带来显著的性能提升。它最独特的特点是拥有 192GB 的先进高性能内存 HBM3,该内存传输数据更快,可以容纳更大的 AI 模型。
苏姿丰将 MI300X 及其系统直接与 Nvidia 的主要 AI GPU,H100 进行了比较。
苏姿丰说:「这种性能直接转化为更好的用户体验。当你向模型询问某事时,你希望它能更快回应,尤其是当回应变得更复杂时。」
AMD 面临的主要问题是,那些一直在 Nvidia 上构建的公司是否愿意投入时间和金钱增加另一个 GPU 供应商。「采用 AMD 需要付出努力,」苏姿丰说。
AMD 在周三告诉投资者和合作伙伴,它已经改进了名为 ROCm 的软件套件,以与 Nvidia 的行业标准 CUDA 软件竞争,解决了 AI 开发者当前更喜欢 Nvidia 的主要缺点之一。
价格也很重要。AMD 周三没有公布 MI300X 的定价,但 Nvidia 的芯片成本约为 40,000 美元一颗,苏姿丰告诉记者,为了说服客户购买,AMD 的芯片购买和运营成本必须低于 Nvidia 的。
AMD 周三表示,它已经签约了一些对 GPU 需求最大的公司来使用该芯片。根据市场研究公司 Omidia 最近的报告,Meta 和微软是 2023 年 Nvidia H100 GPU 的两个最大购买者。
Meta 表示,它将使用 MI300X GPU 处理 AI 推理工作负载,如处理 AI 贴纸、图像编辑和运行其助手。
微软首席技术官 Kevin Scott 表示,该公司将通过其 Azure 网络服务提供对 MI300X 芯片的访问。
甲骨文的云服务也将使用这些芯片。
OpenAI 表示,它将在其软件产品之一 Triton 中支持 AMD GPU,Triton 不是像 GPT 那样的大型语言模型,而是用于 AI 研究的,以访问芯片功能。
AMD 尚未预测该芯片的巨大销售额,仅预计 2024 年的总数据中心 GPU 收入约为 20 亿美元。Nvidia 在最近一个季度的数据中心销售额超过 140 亿美元,尽管该指标包括了除 GPU 之外的其他芯片。
然而,AMD 表示,未来四年 AI GPU 的总市场可能攀升至 4000 亿美元,是该公司之前预测的两倍。这显示了期望值有多高,以及高端 AI 芯片变得多么抢手——这就是为什么该公司现在将投资者的注意力集中在该产品线上。
苏姿丰还向记者们暗示,AMD 并不认为需要击败 Nvidia 才能在市场上表现良好。
苏姿丰表示:「可以明确地说,Nvidia 现在必须占据绝大多数市场。」「我们认为到 2027 年,它可能超过 4000 亿美元。我们可以从中分得一杯羹。」
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】