本周一清晨,OpenAI旧金山办公室外的人行道上出现了用粉笔写下的标语:“你们的红线在哪里?”“你们必须站出来说话。”“保障措施是什么?”据社交媒体和新闻报道,这些标语出自活动人士之手。但上周五,在OpenAI与五角大楼达成协议、同意将其人工智能模型用于机密系统后,大楼内部的许多员工也抱有同样的愤慨之情。
2025年6月2日,在加利福尼亚州旧金山的莫斯康中心举办的2025年雪花数据云峰会(SnowflakeSummit2025)上,OpenAI首席执行官萨姆・奥尔特曼发表演讲。
此前,Anthropic公司因认为合同条款不符合其在大规模监控和自主武器领域使用人工智能的红线,拒绝更新与五角大楼的合同。此举导致五角大楼将其列入黑名单,认定其为供应链风险。
这些合同涉及复杂的法律和技术细节。但在公共论坛和私下交谈中,OpenAI员工对公司领导层处理五角大楼谈判的方式表示强烈不满。一名不愿透露姓名、以便畅所欲言的现任员工告诉美国有线电视新闻网(CNN),许多员工“非常尊重”Anthropic敢于对抗五角大楼的立场,并对OpenAI处理自身合同的做法感到沮丧。
上周五,就在五角大楼设定的Anthropic合同同意期限即将截止之际,OpenAI首席执行官萨姆・奥尔特曼突然表示,他认同竞争对手Anthropic首席执行官达里奥・阿莫代伊的观点,并且双方拥有相同的红线,这让许多人大感意外。
然而,事实证明,奥尔特曼当时正在为OpenAI自己的交易进行谈判。数小时后,当OpenAI宣布与五角大楼达成合作协议、看似“趁虚而入”取代了Anthropic的位置时,外界的批评声如潮水般涌来。周六,OpenAI公布了部分合同条款,许多外部观察人士立即质疑,针对自主武器和大规模监控的红线究竟如何得到有效维护,有人称相关条款仍可能让这些保障措施形同虚设。
作为回应,奥尔特曼于周六晚间在X平台(原推特)公开回答了相关问题,并于周一宣布,OpenAI已调整与五角大楼的合同,更明确地制定了防护措施,以防止OpenAI的服务被用于监控项目。(但他在网上公布的补充条款中,并未提及自主武器相关内容。)
上述现任员工表示,许多员工承认,在美国与中国展开人工智能竞争的背景下,支持政府是必要的。但他们也认为,如此重要且影响深远的合同,其推进过程过于仓促。
“部分原因在于大家对这件事的看法、公司的沟通方式,以及由此形成的舆论叙事。”该员工说道。
已有部分员工公开发表了不满。研究科学家艾丹・麦克劳克林在周一上午奥尔特曼更新合同条款前,于X平台发文称:“就我个人而言,我认为这笔交易得不偿失。”他随后表示,关于此事的内部讨论“十分热烈”,但他为“能在一个人们可以畅所欲言的地方工作而感到无比自豪”。
在OpenAI从事人工智能安全相关工作的贾斯敏・王发文表示,她希望有“独立法律顾问”来分析奥尔特曼周一宣布的新合同条款。她后来还转发了多篇法律分析文章,其中既有支持OpenAI所谓“强化红线”说法的,也有批评其条款为“含糊其辞的遁词”的。
奥尔特曼承认了此次沟通失误。
“这些问题极其复杂,需要清晰的沟通。”奥尔特曼周一在X平台上写道,“我们当时真心希望缓和局势,避免出现更糟糕的结果,但现在看来,这一做法似乎显得投机且草率。”
据一位知情人士透露,在周二OpenAI举行的全员大会上,奥尔特曼重申,仓促达成这笔交易是一个“错误”。但他表示,OpenAI无法对其技术的具体用例进行评判,比如无法界定某一特定军事行动的好坏。
OpenAI发言人向CNN表示,相关问题请参考奥尔特曼的公开声明。
周二,部分员工还感到不满的是,尽管Anthropic前几年也曾与五角大楼及大型国防承包商帕兰提尔(Palantir)有过合作,且当时几乎未受到审查,但如今一些观察人士却将其塑造成了“英雄”形象。
奥尔特曼在周二的员工大会上表示,他认为政府应与像OpenAI这样执行安全标准的实验室合作,而非那些防护措施更少的公司。他还称,自己正在敦促政府撤销对Anthropic的“供应链风险”认定。
“我相信,我们有望打造出最优秀的模型,这将促使政府愿意与我们合作,即便我们的安全体系让他们感到不满,或对其施加了某些限制。”他在会上说道。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】