刚刚,有网友仔细总结了OpenAI的七宗罪,对Altman发出愤怒的诘问:为何计划跟踪GPU?为何合作军方?员工滚雪球式离职的消息不断曝出,整个对齐团队已经濒临崩溃,“说谎”“心口不一”的形象愈发鲜明,Altman正在失去民心。
OpenAI的离职潮,已经像滚雪球一样,根本停不下来了。
Ilya的离去,仿佛是压弯骆驼的最后一根稻草。
由Ilya领衔的超级对齐团队,是防止AGI失控、保护人类的最后一道屏障。
然而Altman统治下的OpenAI,把光鲜的产品置于安全之前,让超级对齐团队在计算资源方面捉襟见肘,完成关键研究变得越来越困难。
不断离职的超级对齐团队员工纷纷表示:我们已经彻底失去信心,无法再对OpenAI在AGI时代的行为负责了。
昨天曝出的股权协议原件,更是让Altman言行不一的面目暴露出来——文件上明明有Altman的签名,他却极力否认自己对此事知情。
在OpenAI这个可能影响全人类命运的机构中,究竟发生了什么??
现在,已经有愤怒的网友发帖,历数了OpenAI的七大罪状:无视AGI风险、逼迫员工放弃股权却装失忆、反对开源、跟踪GPU、泄露隐私、和军方合作等等……桩桩件件都附有参考链接。
01
又一对齐员工离职
OpenAI的超级对齐团队,现在就像多米诺骨牌一样。
上周,首席科学家兼联合创始人IlyaSutskever宣布辞职,紧接着高管JanLeike也辞职了。
Leike指责OpenAI把“光鲜的产品”放在安全之前,并表示超级对齐团队“在计算资源方面捉襟见肘”,完成这项关键研究“变得越来越困难”。
这周和上周的离职事件,紧随另外两名安全研究员DanielKokotajlo和WilliamSaunders,也出于类似的原因离职。
如今,又有一名团队成员高调宣布了自己的离开。
在得知IlyaSutskever和JanLeike的消息前几个小时,我就已经选择了离职。
我们需要做更多的工作来改进决策过程、问责制、透明度、文档记录、政策执行、使用自身技术时的谨慎态度,以及减少对不平等、权利和环境影响的措施。
这些担忧对于现在的社会来说非常重要。它们影响着未来发展的方向,以及由谁来引领。我想强调的是,不管是我们内部的还是来自其他人的担忧不应该被误解为狭隘的、推测性的或不相关的。它们不是。
科技公司往往会通过在提出质疑或挑战其权力的人之间制造分歧,来削弱那些试图对其进行问责的人。
我很感激自己有能力和支持去做这件事,这在很大程度上要归功于DanielKokotajlo给的勇气。我也明白,在整个行业中,还有很多人无法做到这一点。
OpenAI仍在开展许多重要工作,包括扩大访问权限、准备框架开发、增强信心的措施,以及解决我之前提到的担忧。我仍然对这些工作及其成功充满期待和投入。
02
历数OpenAI“七宗罪”
Ⅰ无视AGI风险,超级对齐分崩离析
至此,我们已经无法再用玩梗蒙蔽自己了。.
Ilya等安全团队的人员离去,大概率跟AGI或者GPT-5都无关,而是被逼得走投无路。
自从OpenAI发生第一轮宫斗、SamAltman被罢免以来,整个OpenAI的情绪就不对劲了。
显然,Altman在合作伙伴关系和产品重点方面的发展方向,已经超出了大多数人能接受的程度。
他的危险面目,随着时间线的推移,也越来越清晰地暴露出来。
Ⅱ跟踪GPU,随时撤销GPU许可证
而且,OpenAI最近公布的AI治理计划,也掀起了轩然大波。
OpenAI提出,将加密保护扩展到硬件层,实现以下属性——
1.GPU可以通过加密方式验证其真实性和完整性。
2.具有加密原语的GPU可以使模型权重保持加密状态,直到它们被暂存并加载到GPU上。这在主机或存储基础设施受到损害时,增加了重要的深度防御层。
3.具有唯一加密身份的GPU,可以为特定GPU或GPU组加密模型权重和推理数据。完全实现后,这可以使模型权重只能由属于授权方的GPU解密,并且可以允许推理数据从客户端加密到服务其请求的特定GPU。
这些内容,无疑让人恐慌。
比如第一句:GPU可以通过加密方式验证其真实性和完整性。
这也就意味着,如果我们从英伟达买一块GPU,它会像DRM一样进行签名,从而被批准运行和加速AI模型。
假如一个小公司来购买硬件,现在就需要经过额外的层层审批,才能把自己的硬件推向市场,这无疑很可怕。
大概没有多少人希望自己的GPU是签名的,大家都会希望使用匿名的GPU。
第二条也很诡异,必须每个硬件上都有签名,才能允许我们运行AI,这简直是一件荒谬的事。因为如果上面有签名,他们也就可以撤销签名,谁有权决定呢?
第三条也是如此,模型权重只能由属于授权方的GPU解密,这个权力属于谁?
而其中这句话,也显示出OpenAI的重点在于保护模型权重,而非开源,或开放权重,这个观点已经与开源AI的大力支持者大相径庭了。
一名网友锐评道:这些关于安全和保障的很多想法,让我摸不着头脑,很多内容显示出,OpenAI正在全力以赴地关注闭源架构,这让我更感激Meta这样的开源公司了。
Ⅲ签字逼迫员工放弃股权,事后装失忆
前几天此消息曝出:如果OpenAI员工在离职时拒绝签署要求严苛的协议,无法保证永不批评OpenAI,那他们可能就会失去已有的OpenAI股权。
瞬间让科技圈炸锅。面对群情激愤的声讨,Altman紧急发布道歉声明,表示自己从不知道OpenAI有威胁股权的条款,以后也不会这样做。
然而他随后就被打脸了,外媒扒出了更多内部协议。
这些文件显示,OpenAI几乎拥有所有权利,可以任意将股权从前员工那里收回,或者阻止他们出售股权。
签署这些文件的,正是SamAltman,签署日期为2023年4月10日。
随后,更多霸王条款曝出。比如OpenAI发给离职员工一份冗长且复杂的终止文件,需要在七天之内签署完毕。
这意味着,前员工仅有一周的时间,去决定是否接受OpenAI的“封口费”,否则就会失去数百万美元股权。
而且,当前员工要求额外2-3周的时间寻求法律援助并审查文件时,却遭到了OpenAI的强烈反对。
“TheGeneralReleaseandSeparationAgreement”(概括性索偿弃权书和离职协议)需要你在7天内签署。我们希望确保你明白,如果你不签署,这可能会影响你的股权。这对每个人都是一样的,我们只是按规章办事」。
对此,加州的就业律师ChambordBenton-Hayes表示,“一家企业威胁收回已归属的股权是极其恶劣和不寻常的”。
然而,OpenAI大多数前员工,却对这样的霸王条款屈服了。
而整件事最荒谬的,还是以Altman为首的OpenAI高管事后堂而皇之的装傻。
Ⅳ和NewsCorp合作,ChatGPT中也会有广告了
昨天,在一片乱中,OpenAI依然官宣了和新闻集团NewsCorp的合作,并将之成为“里程碑意义的多年全球合作伙伴关系”。
根据协议内容,NewsCorp的新闻内容都会引入OpenAI。
OpenAI有权显示相关媒体报头的内容,用来回答用户问题,目的是“让人们根据可靠的消息和新闻来源,做出明智的选择”。
NewsCorp旗下的出版物,包括《华尔街日报》、《巴伦周刊》、《MarketWatch》、《投资者商业日报》、《FN》、《纽约邮报》、《泰晤士报》、《星期日泰晤士报》、《太阳报》等等。
对此,网友评价说:看这个名单就知道,OpenAI选择了非常糟糕的合作方。
这些媒体一向把右翼宣传作为商业模式,引起政治讨论,使用一切必要的手段来推动叙事,甚至曾通过福克斯新闻否认2022年的总统选举。
甚至NewsCorp还曾卷入这样一起丑闻,涉嫌侵入600多人的手机,来获取情报。
从此,我们使用OpenAI的产品时,无可避免地会受到某些倾向的影响。
而且,以后AI聊天机器人的世界,也将到处充斥着广告。
不久前一份泄露的文件显示,OpenAI计划在GPT聊天中,纳入品牌优先权。
根据文件,凡是加入该计划的公司,都会在ChatGPT等产品的聊天对话中获得优先权,品牌能够露出得更多,链接中也会更强调它们的内容。
而且通过PPP,OpenAI甚至还会向出版商提供许可的财务条款。
获得更丰富产品表达的公司,将拥有品牌悬停链接、锚定链接和内嵌处理。
悬停处理中,OpenAI会在搜索查询的响应中,超链接关键字。这些链接会显示为蓝色文本,鼠标悬停在上面时,会显示可单击的选项卡。
在锚点处理中,ChatGPT对用户查询响应的下方,会出现一个可点击的品牌化按钮。
内嵌产品则会在ChatGPT响应的文本中插入引文,字体更大,并且包含可点击的品牌链接。
总之,ChatGPT从此会变成被商业广告操控的世界。
Ⅴ和微软一起反对开源
开源和闭源之争中,OpenAI已经联合微软正式下场,试图对政府施加影响了。
最近,由科技巨头、初创公司和风险投资家组成的联盟,正在花费数百万美元来说服华盛顿,让他们相信对AI世界末日的担忧被夸大了。
他们的行动已经产生了影响。他们的影响力网络在推动这样一种观点:与其说AI是一种生存威胁,不如说是一个重要的商业机会,绝不能让严格的安全措施,把美国的AI优势拱手让给他人。
华盛顿的游说格局,已成为一场由大量资金支持的、近乎哲学争论的战争。
微软和OpenAI这一派的观点是,提倡严格的安全限制和许可要求。严格的限制,显然对拥有最强大AI的公司是有利的。
而Meta、IBM等公司,更依赖于开源AI模型,而非OpenAI、Google等追求的闭源框架,因此他们力图推动一种规则更少、更加开放的方法。
无论是IBM还是Meta,都在开源斗争中投入了大量的游说资源。自从2023年中期的AI辩论爆发以来,IBM为游说华盛顿投入了400万美元,Meta则花费了超过1700万美元。
而OpenAI,当然不希望这些开源既得利益者迎头赶上。
Ⅵ泄露隐私,让人类过度依赖AI
在上周的OpenAI大会上,技惊四座的GPT-4o所宣传的重点,显然被放在了情感依恋上。
然而,无论是开发高度情绪化的语音输出,还是通过声音读取某人情绪健康的能力,无疑都是潜在的危险方向。
据说,Ilya是反对这一决定的。在他看来,除了学习说服之外,AI学习语音方式并没有什么好处。
发布会上,GPT-4o加持的AI语音助手,更加情感丰富,现场展示的幽默和害羞等特质,让它更像个人类。
与之相比,Google介绍Astra时,用的最多的词就是“助理”,这就明确显示了Google对于语音助手的定位。
显然,在AI助手这方面,OpenAI的尝试更大胆,Google则更谨慎。
Google的态度,此前也有迹可循。此前它就一直在有意远离“Her”型的AI。
上个月,GoogleDeepMind的研究人员发布了一篇论文,详细阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义“人类”和“其他”之间的界限。
论文地址:https://arxiv.org/pdf/2404.14068
而这,就可能会导致一些危害。例如用户会将重要的决策交给AI,向AI透露敏感信息,或者在情感上过度依赖AI等等。
这样的结果,可能是灾难性的。毕竟,《Her》中描述的并不是一个happyending,更像是一个反乌托邦的未来。
显然,这个问题,并不在OpenAI的考虑范围之内。
Ⅶ技术向军方开放
最后一件危险的事就是,今年OpenAI已经悄悄删除了针对“军事和战争”使用ChatGPT的禁令,因此,军方也可以使用ChatGPT技术了。
虽然目前看来,OpenAI提供的任何服务都无法用于直接杀人,比如操控无人机或发射导弹,但他们可以增强许多相关的任务,比如写代码、处理采购订单。
有证据表明,美国的军事人员已经在使用ChatGPT加快文书工作,美国国家地理空间情报局已经公开考虑,使用ChatGPT来协助人类分析师。
要知道,OpenAI一直和主要国防承包商微软合作密切,迄今为止,微软已经向OpenAI投入了130亿美元的巨资。
在当前的局势下,全世界的军队都渴望用AI技术来武装自己。
虽然LLM不可避免的幻觉,以及用ChatGPT分析机要信息或敏感数据可能会带来安全风险,但五角大楼的态度,仍然是渴望拥抱AI。
在11月的一次讲话中,国防部副部长KathleenHicks表示,人工智能是“我和LloydAustin部长从第一天起,就一直在推动的以作战人员为中心的创新的关键部分”。
老将出走,员工炮轰,接下来的OpenAI,会在“惯会说谎”的SamAltman治下走向何方?
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】