人工智能

奥特曼的新烦恼:OpenAI员工们要“造反”了

字号+作者: 来源:i黑马 2024-06-07 20:29 评论(创建话题) 收藏成功收藏本文

最近,奥特曼的新烦恼又来了,这次的烦恼是OpenAI员工们要“造反”了。6月5日,一封由13位OpenAI和GoogleDeepMind前员工、现员工联合发布的公开信,引起全世界'...

最近,奥特曼的新烦恼又来了,这次的烦恼是OpenAI员工们要“造反”了。6月5日,一封由13位OpenAI和GoogleDeepMind前员工、现员工联合发布的公开信,引起全世界网友的广泛关注。EKL品论天涯网


EKL品论天涯网

这封信不仅揭发OpenAI的鲁莽和保密文化,强调前沿AI技术的严峻风险,还表达了对AI公司在开发和推广AI技术时利益优先、打压异见者和规避监管等种种行径的担忧。EKL品论天涯网

更猛的是,为这封信公开署名的竟有:被誉为“人工智能教父”的杰弗里·辛顿(GeoffreyHinton)、因开创性AI研究获得图灵奖的约书亚·本吉奥(YoshuaBengio)和AI安全领域的学者斯图尔特·罗素(StuartRussell)。EKL品论天涯网

连这些骨灰级的大神们都亲自下场掐架了,可见这封信的声量和影响力,定然不同凡响。EKL品论天涯网

01EKL品论天涯网

这封公开信想表达什么?EKL品论天涯网

看完这封公开信后,给大家归纳了几个要点:(文末还有公开信的完整编译)EKL品论天涯网

第一,AI或许会加剧现有的不平等现象,操纵和传播误导信息,以及可能无法控制自主人工智能系统,最终可能威胁人类生存。EKL品论天涯网

第二,AI公司出于财务利益的考虑,往往避免接受有效监管,“我们认为特别设计的企业治理模式不足以改变这一现状”。EKL品论天涯网

第三,AI公司掌握着大量的内部信息,目前与政府分享这些信息的责任较为有限,而且没有与民间社会分享的义务。这些公司中,现任和前任员工是为数不多的能够向公众负责的人,但保密条款阻碍了这种忧虑的表达。EKL品论天涯网

第四,希望领先的AI企业承诺遵循一些原则,包括承诺不会签订或执行任何禁止对公司的风险相关担忧进行负面评价或批评的协议,也不会因员工进行风险相关的批评而阻碍其既得经济利益做出报复。EKL品论天涯网

第五,希望建立一个可验证的匿名机制,供现任和前任员工使用。EKL品论天涯网

OpenAI前员工丹尼尔·科泰洛(DanielKokotajlo)作为联名信公开署名人员中的一位,曾在社交平台发文提到,“我们中一些最近从OpenAI辞职的人聚集在一起,要求实验室对透明度作出更广泛的承诺。”EKL品论天涯网

据了解,今年4月,丹尼尔刚从OpenAI辞职,其原因之一就是对OpenAI在构建通用人工智能方面未采取负责任的行为,失去了信心。EKL品论天涯网

在丹尼尔看来,AI系统不是普通的软件,它们是从大量数据中学习的人工神经网络。关于可解释性、对齐和控制的科学文献正在迅速增多,但这些领域仍处于起步阶段。如果不小心,可能会在长期内造成灾难性后果。EKL品论天涯网

从OpenAI离开时,丹尼尔曾被要求签署一份文件,其中包含一项不贬损条款,禁止他发表任何批评公司的话。他拒绝签署,最终代价是失去了既得股权。EKL品论天涯网

02EKL品论天涯网

OpenAI造反的远不止这些人EKL品论天涯网

巧合的是,今年4月,从OpenAI离开的还有奥波德·阿申布伦纳(LeopoldAschenbrenner)。EKL品论天涯网

不同的是,他不是主动辞职,而是被OpenAI以泄露公司机密为由开除的。EKL品论天涯网


EKL品论天涯网

阿申布伦纳是OpenAI前超级对齐部门成员,他可能曾与5月刚离职的跟OpenAI联合创始人、首席科学家IlyaSutskever一起共事。EKL品论天涯网

但他被开除的真实原因,其实是他给几位董事会成员分享了一份OpenAI安全备忘录,结果招致OpenAI高层的不满。EKL品论天涯网

据说,OpenAI当时很清楚地告诉他,开除他的主要原因就是这份备忘录。EKL品论天涯网

随后,之后阿申布伦纳上线了一个网站,用165页PDF文件汇总了他在OpenAI工作期间所了解的信息,这份文件被看作是“硅谷最激进的AI研究人员提出的一份未来10年AI发展的纲领性文件”。EKL品论天涯网


EKL品论天涯网

在他看来,深度学习没有遇到瓶颈,人类在2027年,就能实现AGI。而在2030年左右,AGI很有可能会发展出全面超越人类的超级人工智能,但是人类似乎还没有做好准备。EKL品论天涯网

他还预言,AI即将带来的,绝不仅是多数专家认为的“另一场互联网规模的技术变革”。EKL品论天涯网

有趣的是,阿申布伦纳最近成立了一家专注于AGI的投资公司,主要投资人包括PatrickCollison(移动支付巨头Stripe联创兼CEO)、JohnCollison(同为Stripe联创)、NatFriedman(前Github的CEO)和DanielGross(YCombinator前AI主管)。EKL品论天涯网

03EKL品论天涯网

多名OpenAI骨干加入“叛军”阵营EKL品论天涯网

5月15日,OpenAI联合创始人、首席科学家IlyaSutskever,突然宣布已离开OpenAI。EKL品论天涯网


EKL品论天涯网

自去年11月OpenAI宫斗事件中,由于对公司模型的安全性有所担忧,Ilya曾联合董事会成员发起过反对SamAltman的行动。事后,Ilya几乎没有出席过任何学术演讲或接受任何采访,从此销声匿迹。EKL品论天涯网

此后,业界一直很关心“Ilya看到了什么?他去哪了,又在做什么?”EKL品论天涯网


EKL品论天涯网

Ilya此前曾在一段视频中提到,在AGI实现的那一天,AI未必会仇恨人类,但他们对待人类的方式可能会像人对待动物一样。人可能无意伤害动物,但如果你想修一条城际高速,你不会征询动物的意见,而是直接去做。当面临这种情况时,AI可能也会自然而然地做出类似的选择。EKL品论天涯网

当时,很多人可能没注意,与Ilya同步宣布离开的,还有超级对齐团队的共同领导者JanLeike。EKL品论天涯网

他是OpenAl安全主管,曾与IlyaSutskever共同领导OpenAI的超级对齐团队,该团队负责防止超级智能失控。EKL品论天涯网


EKL品论天涯网

据JanLeike透露,他与OpenAl高层在公司的核心优先事项上存在长期分歧,双方的分歧严重到无法调和的地步。团队在推动其研究项目和争取计算资源时遇到了重大阻碍,缺乏资源严重影响研究的进度和质量。EKL品论天涯网

无独有偶,5月18日,OpenAl超级对齐团队就地解散,剩余成员并入核心研究团队。现在看,这一步步就像是提前排练好的。EKL品论天涯网

5月29日,JanLeike正式宣布加入OpenAl的竞争对手Anthropic。EKL品论天涯网

他在X上称:“我很兴奋能加入Anthropic团队,继续推进超级对齐任务!我的新团队将致力于可扩展的监督机制、弱到强泛化以及自动化对齐研究。如果你也对加入我们感兴趣,欢迎通过私信联系我。”EKL品论天涯网


EKL品论天涯网

Anthropic是谁?据了解,Anthropic就是原OpenAI员工组建的公司,因为一些发展理念不合才直接“反叛”,并成为了OpenAI的最强劲敌。EKL品论天涯网

Anthropic由前OpenAI员工DarioAmodei和DanielaAmodei兄妹于2021年创立,亚马逊已对其投资40亿美元,并持有少数股权,该公司一直试图将自己定位为比竞争对手(OpenAl)更有安全意识的公司。EKL品论天涯网

今年3月,Anthropic刚发布的Claude3系列模型,已在多模态和语言能力指标上,已全面碾压GPT-4。EKL品论天涯网

关于Anthropic与OpenAl的对抗故事,似乎刚拉开帷幕,后面我们或许还能见证更多他们之间爱恨情仇。EKL品论天涯网

写在最后EKL品论天涯网

从去年11月OpenAI宫斗事件开始,关于OpenAl大模型的安全性问题,其实一直都存在一些争议。EKL品论天涯网

也许就是从那时起,OpenAI内部就分裂成了两个阵营:EKL品论天涯网

一个是以奥特曼为首的发展派;另一个则是以Ilya为首的安全派。EKL品论天涯网

但结局很明显,以Ilya为首的安全派丧失了话语权,整个超级对齐团队被连根拔起,为继续施行自己的发展理念和相关进程,奥特曼还在继续清除异己。EKL品论天涯网

AGI会全面超越人类的超级人工智能吗?到时候,我们能从容面对吗?EKL品论天涯网

这些问题的答案还重要吗?你怎么看?EKL品论天涯网

附:以下是对此封公开信的完整编译EKL品论天涯网

《警告先进AI的权利》EKL品论天涯网

我们是各大前沿AI公司的现任和前任员工,我们相信AI技术有潜力为人类带来前所未有的好处。EKL品论天涯网

我们也理解这些技术带来的严重风险。这些风险包括加剧现有的不平等、操纵和误导信息、以及失控的自主AI系统可能导致人类灭绝。AI公司自身已经承认了这些风险,政府和其他AI专家也有类似的看法。EKL品论天涯网

我们希望这些风险能够在科学界、政策制定者和公众的充分指导下得到有效的缓解。然而,AI公司有强烈的财务动机避免有效的监督,我们不相信公司为自己量身定制的治理结构能够改变这一点。EKL品论天涯网

AI公司拥有大量关于其系统能力和局限性的非公开信息,这些信息涉及系统的保护措施以及系统的各种风险水平。然而,他们目前只需要向政府分享部分信息,并不背负着向政府汇报的强烈义务,更没有义务向社会公众分享任何信息。我们不认为他们可以完全自愿地分享这些信息。EKL品论天涯网

只要这些公司没有有效的政府监督,那现任和前任员工就是少数能够让公司负起责任的公众人士之一。然而,广泛的保密协议阻止了我们表达担忧,除非是向那些可能未能解决这些问题的公司报告。普通的举报者保护不足以应对此类问题,因为它们主要关注非法活动,而我们关心的许多风险尚未受到监管。考虑到行业历史上一些案例中的各种报复行为,我们中的一些人合理地担心会受到各种形式的报复。我们并不是第一个遇到或谈论这些问题的人。EKL品论天涯网

因此,我们呼吁先进的AI公司承诺以下原则:EKL品论天涯网

公司不会签订或执行任何禁止因风险相关问题而对公司进行诋毁或批评的协议,也不会通过阻碍任何既得经济利益来报复风险相关的批评;EKL品论天涯网

公司将创建一个可验证的匿名流程,使现任和前任员工能够向公司的董事会、监管机构以及具有相关专业知识的适当独立组织提出风险相关的担忧;EKL品论天涯网

公司将支持公开批评的文化,并允许现任和前任员工向公众、公司的董事会、监管机构或具有相关专业知识的适当独立组织提出他们对技术风险的相关担忧,只要适当保护商业秘密和其他知识产权利益即可;EKL品论天涯网

公司不会报复那些在其他流程失败后,公开分享风险相关机密信息的现任和前任员工。我们知道,任何报告风险相关担忧的努力都应避免不必要地泄露机密信息。因此,一旦存在一个足够安全的匿名提出担忧的流程,现任和前任员工应首先通过此类流程提出担忧。然而,只要此类流程不存在,现任和前任员工应保留向公众报告其担忧的自由。EKL品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]