人工智能

英伟达憾失DeepSeek关键人才?美国放走AI“钱学森”哈佛教授痛心疾首

字号+作者:新智元 来源:新智元 2025-02-05 18:32 评论(创建话题) 收藏成功收藏本文

最近,一位哈佛教授痛心疾首地曝出,DeepSeek本来有机会诞生在美国,原本DeepSeek的工程师可以拿到英伟达的全职offer,美国却没有将他留住,导致“钱学森回国”'...

最近,一位哈佛教授痛心疾首地曝出,DeepSeek本来有机会诞生在美国,原本DeepSeek的工程师可以拿到英伟达的全职offer,美国却没有将他留住,导致“钱学森回国”的故事再一次上演,美国跟“国运级AI”擦肩而过!DeepSeek给美国造成的威胁,还在加剧。V6X品论天涯网

就在昨天,DeepSeek的日活数已经达到ChatGPT的23%,每日应用下载量接近500万!V6X品论天涯网


V6X品论天涯网

a16z联创MarcAndreessen发文V6X品论天涯网

谁能想到,做出DeepSeek关键贡献的人才,本来是可能留在美国的。V6X品论天涯网

最近哈佛大学教授曝出这一惊人事实:DeepSeek多模态团队的第4位工程师,本来可以拿到英伟达的全职offer。V6X品论天涯网

然而最终,他选择归国加入DeepSeek,由此的后果就是,美国在AI领域的主导地位被动摇,相关公司市值蒸发一万亿,全球AI格局也被彻底掀翻。V6X品论天涯网

这种结果是阴错阳差,还是一种必然?V6X品论天涯网

美国错失DeepSeek,让“钱学森”再次回国V6X品论天涯网

近日,政治学家、哈佛大学教授、前国防计划助理部长GrahamAllison,在X上提问:“谁曾错失了DeepSeek”?V6X品论天涯网


V6X品论天涯网

他在X痛心发帖称,DeepSeek已刷新对美国AI地位的认知,而美国原本有机会留住DeepSeek的关键员工之一潘梓正(ZizhengPan):V6X品论天涯网

(DeepSeek超越OpenAI相关模型)颠覆了我们对美国AI主导地位的大部分了解。V6X品论天涯网

这也生动地提醒我们,美国必须多么认真地吸引和留住人才,包括来自中国的人才。V6X品论天涯网

潘梓正,是DeepSeek多模态团队的第4位多工程师,在开发DeepSeek的R1模型方面发挥了重要作用。V6X品论天涯网

回国之前,他在英伟达实习过4个月,而且拿到了英伟达的全职邀约。V6X品论天涯网

GrahamAllison认为潘梓正之所以如此,是因为硅谷公司未能在美国为他提供这样做的机会。V6X品论天涯网

这种“人才流失”,让GrahamAllison痛心疾首,甚至将潘梓正回国提升到钱学森归国的高度!V6X品论天涯网


V6X品论天涯网

像钱学森、黄仁勋以及马斯克这样的的超级人才可以用脚投票,可以在任何地方施展才华、大张宏图。V6X品论天涯网

他认为,美国应该尽力避免这样的“人才流失”:V6X品论天涯网

美国的大学教练,在寻找并招募世界上最有才华的运动员。V6X品论天涯网

在中美科技竞争中,美国应该尽一切努力避免失去更多的钱学森和潘梓正这样的人才。V6X品论天涯网

英伟达憾失人才V6X品论天涯网

英伟达的高级研究科学家禹之鼎,在得知DeepSeek超越ChatGPT登顶AppStore后,分享了当时的实习生潘梓正回国的选择,对他现在取得的成就感到高兴,并分享了对AI竞争的观点:V6X品论天涯网


V6X品论天涯网

在2023年夏季,梓正是英伟达的实习生。后来,当我们考虑是否给他提供全职工作时,他毫不犹豫地选择了加入DeepSeek。V6X品论天涯网

当时,DeepSeek的多模态团队只有3个人。V6X品论天涯网

梓正当时的决定,至今我仍印象深刻。V6X品论天涯网

在DeepSeek,他做出了重要贡献,参与了包括DeepSeek-VL2、DeepSeek-V3和DeepSeek-R1等多个关键项目。我个人对他的决定和所取得的成就感到非常高兴。V6X品论天涯网

梓正的案例是我近年来看到的一个典型例子。很多最优秀的人才都来自中国,而这些人才并不一定只能在美国公司取得成功。相反,我们从他们身上学到了很多东西。V6X品论天涯网

早在2022年的自动驾驶(AV)领域,类似的“斯普特尼克时刻”就已经发生过,并且将在机器人技术和大语言模型(LLM)行业继续发生。V6X品论天涯网

我热爱英伟达,并希望看到它继续成为AGI和通用自主系统发展的重要推动力。但如果我们继续编织地缘政治议程,制造对中国研究人员的敌对情绪,我们只会自毁前程,失去更多的竞争力。V6X品论天涯网

我们需要更多的优秀人才、更高的专业水平、更强的学习能力、创造力以及更强的执行力。V6X品论天涯网


V6X品论天涯网

潘梓正是DeepSeek-VL2的共同一作V6X品论天涯网

在DeepSeek超越ChatGPT登顶AppStore下载榜第一时,潘梓正在X上分享了自己的感受:V6X品论天涯网


V6X品论天涯网

潘梓正2024年全职加入DeepSeek,担任研究员。他曾在英伟达AI算法组担任研究实习生。V6X品论天涯网

2021年,潘梓正加入蒙纳士大学(MonashUniversity)ZIPLab攻读计算机科学博士,导师是BohanZhuang教授和JianfeiCai教授。在此之前,他分别获得阿德莱德大学(UniversityofAdelaide)计算机科学硕士和哈尔滨工业大学(威海)软件工程学士学位。V6X品论天涯网

在博士期间,潘梓正的研究兴趣主要集中在深度神经网络的效率方面,包括模型部署、Transformer架构优化、注意力机制、 推理加速和内存高效的训练。V6X品论天涯网



V6X品论天涯网

LexFridman硬核播客,揭秘中国AI新星如何撼动全球格局V6X品论天涯网

就在最近,LexFridman放出了一期长达5小时的播客,邀请了AI2的模型训练专家NathanLambert和Semianalysis硬件专家DylanPatel。V6X品论天涯网

在这期信息量爆棚的谈话中,他们全程聚焦DeepSeek,讨论了这颗中国AI新星如何撼动全球格局、MoE架构+MLA的技术双刃、DeepSeek开源倒逼行业开放进程、中国式极限优化之道的硬件魔术等。V6X品论天涯网


V6X品论天涯网

DeepSeek到底用没用OpenAI数据V6X品论天涯网

这次,几位大佬的谈话内容可谓相当犀利,直指问题核心。V6X品论天涯网

比如这个关键问题:DeepSeek究竟用没用OpenAI的数据?V6X品论天涯网

此前,OpenAI公开表示,DeepSeek使用了自家的模型蒸馏。V6X品论天涯网


V6X品论天涯网

《金融时报》干脆说,“OpenAI有证据表明DeepSeek用了他们的模型来进行训练”V6X品论天涯网

这在道德和法律上站得住脚吗?V6X品论天涯网

虽然OpenAI的服务条款规定,不许用户使用自家模型的输出来构建竞争对手。但这个所谓的规则,其实正是OpenAI虚伪的体现。V6X品论天涯网

LexFridman表示:他们和大多数公司一样,本来就是在未经许可的情况下,使用互联网上的数据进行训练,并从中受益的。V6X品论天涯网

大佬们一致认为,OpenAI声称DeepSeek用其模型训练,就是在试图转移话题、让自己独赢。V6X品论天涯网

而且,过去几天还有很多人把DeepSeek的模型蒸馏到Llama中,因前者在推理上运行很复杂,而Llama很容易提供服务,这违法吗?V6X品论天涯网


V6X品论天涯网

DeepSeek的训练成本,为何如此之低V6X品论天涯网

DylanPatel表示,DeepSeek的成本涉及两项关键的技术:一个是MoE,一个就是MLA(多头潜注意力)。V6X品论天涯网

MOE架构的优势在于,一方面,模型可以将数据嵌入到更大的参数空间中,另一方面,在训练或推理时,模型只需要激活其中一部分参数,从而大大提升效率。V6X品论天涯网

DeepSeek模型拥有超过6000亿个参数,相比之下,Llama405B有4050亿参数。从参数规模上看,DeepSeek模型拥有更大的信息压缩空间,可以容纳更多的世界知识。V6X品论天涯网

但与此同时,DeepSeek模型每次只激活约370亿个参数。也就是说,在训练或推理过程中,只需要计算370亿个参数。相比之下,Llama405B模型每次推理却需要激活4050亿个参数。V6X品论天涯网


V6X品论天涯网

MLA主要用于减少推理过程中的内存占用,在训练过程也是如此,它利用了一些巧妙的低秩近似数学技巧。V6X品论天涯网

NathanLambert表示,深入研究潜注意力的细节,会发现DeepSeek在模型实现方面下了很大功夫。V6X品论天涯网

因为,除了注意力机制,语言模型还有其他组件,例如用于扩展上下文长度的嵌入。DeepSeek采用的是旋转位置编码(RoPE)。V6X品论天涯网

将RoPE与传统的MoE结合使用,需要进行一系列操作,例如,将两个注意力矩阵进行复数旋转,这涉及到矩阵乘法。V6X品论天涯网

DeepSeek的MLA架构由于需要一些巧妙的设计,因此实现的复杂性大大增加。而他们成功地将这些技术整合在一起,这表明DeepSeek在高效语言模型训练方面走在了前沿。V6X品论天涯网

DylanPatel表示,DeepSeek想方设法提高模型训练效率。其中一个方法就是不直接调用NVIDIA的NCCL库,而是自行调度GPU之间的通信。V6X品论天涯网

DeepSeek的独特之处在于,他们通过调度特定的SM(流式多处理器)来管理GPU通信。V6X品论天涯网

DeepSeek会精细地控制哪些SM核心负责模型计算,哪些核心负责allreduce或allgather通信,并在它们之间进行动态切换。这需要极其高深的编程技巧。V6X品论天涯网

DeepSeek为何如此便宜V6X品论天涯网

在所有声称提供R1服务的公司中,定价都远高于DeepSeekAPI,而且大多服务无法正常工作,吞吐量极低。V6X品论天涯网

让大佬们震惊的是,一方面中国取得了这种能力,另一方面价格如此之低。(R1的价格,比o1便宜27倍)V6X品论天涯网

训练为什么便宜,上文已经提到。为什么推理成本也这么低呢?V6X品论天涯网

首先,就是DeepSeek在模型架构上的创新。MLA这种全新的注意力机制,跟Transformer注意力机制不同。V6X品论天涯网

这种多头潜注意力,可以将注意力机制的内存占用减少大约80%到90%,尤其有助于处理长上下文。V6X品论天涯网


V6X品论天涯网

而且,DeepSeek和OpenAI的服务成本有巨大差异,部分原因是OpenAI的利润率非常高,推理的毛利率超过了75%。V6X品论天涯网

因为OpenAI目前是亏损的,在训练上花费了太多,因此推理的利润率很高。V6X品论天涯网

接下来亮点来了,几位大佬放飞想象,猜测这会不会是一种阴谋论:DeepSeek精心策划了这次发布和定价,做空英伟达和美国公司的股票,配合星际之门的发布……V6X品论天涯网

但这种猜测立马遭到了反驳,DylanPatel表示,他们只是赶在农历新年前把产品尽快发布而已,并没有没有打算搞个大的,否则为什么选在圣诞节后一天发布V3呢?V6X品论天涯网

中国的工业能力,已经远超美国V6X品论天涯网

美国无疑在GPU等芯片领域领先于中国。V6X品论天涯网

不过,对GPU出口管制,就能完全阻止中国吗?不太可能。V6X品论天涯网

DylanPatel认为,美国政府也清楚地认识到这一点,而NathanLambert认为中国会制造自己的芯片。V6X品论天涯网

中国可能拥有更多的人才、更多的STEM毕业生、更多的程序员。美国当然也可以利用世界各地的人才,但这未必能让美国有额外的优势。V6X品论天涯网

真正重要的是计算能力。V6X品论天涯网

中国拥有的电力总和,数量已经惊人。中国的钢铁厂,其规模相当于整个美国工业的总和,此外还有需要庞大电力的铝厂。V6X品论天涯网

即使美国的星际之门真的建成,达到2吉瓦电力,仍小于中国最大的工业设施。V6X品论天涯网


V6X品论天涯网

就这么说吧,如果中国建造世界上最大的数据中心,只要有芯片,马上就能做到。所以这只是一个时间问题,而不是能力问题。V6X品论天涯网

现在,发电、输电、变电站以及变压器等构建数据中心所需的东西,都将制约美国构建越来越大的训练系统,以及部署越来越多的推理计算能力。V6X品论天涯网

相比之下,如果中国继续坚信ScalingLaw,就像纳德拉、扎克伯格和劈柴等美国高管那样,甚至可以比美国更快地实现。V6X品论天涯网

因此,为了减缓中国AI技术的发展,确保AGI无法被大规模训练,美国出台了一系列禁令——通过限制GPU、光刻机等关键要素的出口,意图“封杀”整个半导体产业。V6X品论天涯网

OpenAIo3-Mini能追上DeepSeekR1吗?V6X品论天涯网

接下来,几位大佬对几个明星推理模型进行了实测。V6X品论天涯网


V6X品论天涯网

有趣的是,Google的GeminiFlashThinking,无论从价格还是性能上来看都优于R1,而且在去年12月初就发布了,然而却无人关心……V6X品论天涯网

对此,几位大佬的体感是,它的行为模式不如o1那样富有表现力,应用场景较窄。o1在特定任务上可能不是最完美,但灵活性和通用性更强。V6X品论天涯网


V6X品论天涯网

LexFrieman则表示,自己个人非常喜欢R1的一点,是它会展示完整的思维链token。V6X品论天涯网

在开放式的哲学问题中,我们作为能欣赏智能、推理和反思能力的人类,阅读R1的原始思维链token,会感受到一种独特的美感。V6X品论天涯网

这种非线性的思维过程,类似于詹姆斯·乔伊斯的意识流小说《尤利西斯》和《芬尼根的守灵夜》,令人着迷。V6X品论天涯网


V6X品论天涯网

相比之下,o3-mini给人的感觉是聪明、快速,但缺乏亮点,往往比较平庸,缺乏深度和新意。V6X品论天涯网

从下图中可以看到,从GPT-3到GPT-3.5,再到Llama,推理成本呈指数级下降趋势。V6X品论天涯网


V6X品论天涯网

DeepSeekR1是第一个达到如此低成本的推理模型,这个成就很了不起,不过,它的成本水平并没有超出专家们预期的范围。V6X品论天涯网

而在未来,随着模型架构的创新、更高质量的训练数据、更先进的训练技术,以及更高效的推理系统和硬件(比如新一代GPU和ASIC芯片),AI模型的推理成本还会持续下降。V6X品论天涯网

最终,这将解锁AGI的潜力。V6X品论天涯网

谁将赢得AGI竞赛V6X品论天涯网

最后,几位大佬预测了一番,谁将是AGI竞赛的最终赢家。V6X品论天涯网

Google似乎是领跑者,因为拥有基础设施优势。V6X品论天涯网

但在舆论场上,OpenAI似乎是领先者。它在商业化方面已经走在了最前面,拥有目前AI领域最高的收入。V6X品论天涯网

目前,谁究竟在AI领域赚到钱了,有人盈利了吗?V6X品论天涯网


V6X品论天涯网

大佬们盘了盘后发现,从财务报表上看,微软在AI领域已经实现了盈利,但在基础设施方面已经投入了巨额资本支出。Google、亚马逊也是如此。V6X品论天涯网

Meta获取的巨额利润来自于推荐系统,并非来自Llama等大模型。V6X品论天涯网

Anthropic和OpenAI显然还没盈利,否则就不需要继续融资了。不过单从营收和成本来看,GPT-4已经开始盈利了,因为它的训练成本只有几亿美元。V6X品论天涯网

最终,谁都无法预料,OpenAI是否会突然陨落。不过目前,各家公司还会继续融资,因为一旦AGI到来,AI带来的回报难以估量。V6X品论天涯网

人们可能并不需要OpenAI花费数十亿美元,去研发“下一个最先进的模型”,只需要ChatGPT级别的AI服务就足够了。V6X品论天涯网

推理、代码生成、AI智能体、计算机使用,这些都是AI未来真正有价值的应用领域。谁不发力,谁就可能被市场淘汰。V6X品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]