人工智能

OpenAI和Anthropic的研究人员谴责马斯克xAI的安全文化“鲁莽”

字号+作者:cnBeta.COM 来源:cnBeta 2025-07-17 07:33 评论(创建话题) 收藏成功收藏本文

OpenAI、Anthropic和其他组织的人工智能安全研究人员公开反对埃隆·马斯克旗下价值数十亿美元的人工智能初创公司xAI的“鲁莽”和“完全不负责任”的安'...

OpenAI、Anthropic和其他组织的人工智能安全研究人员公开反对埃隆·马斯克旗下价值数十亿美元的人工智能初创公司xAI的“鲁莽”和“完全不负责任”的安全文化。此前数周,xAI爆出丑闻,给公司的技术进步蒙上了阴影,引发了诸多批评。Tuh品论天涯网

Tuh品论天涯网

上周,该公司的人工智能聊天机器人Grok发表了反犹太言论,并多次自称“机械希特勒”。xAI下线该聊天机器人后不久,就推出了功能日益强大的前沿人工智能模型Grok4。媒体发现,该模型可以咨询埃隆·马斯克的个人政治观点,以协助解答热点问题。在最新进展中,xAI推出了人工智能伙伴,分别以性感火辣的动漫女孩和攻击性过强的熊猫形象出现。Tuh品论天涯网

竞争人工智能实验室的员工之间友好地开玩笑是相当正常的,但这些研究人员似乎呼吁更多地关注xAI的安全实践,他们声称这与行业规范相冲突。Tuh品论天涯网

“我本来不想发表关于Grok安全方面的文章,因为我在竞争对手那里工作,但这与竞争无关,”目前从哈佛大学休假前往OpenAI从事安全研究的计算机科学教授BoazBarak在周二X上的一篇文章中表示。“我很欣赏xai的科学家和工程师,但其处理安全问题的方式完全不负责任。”Tuh品论天涯网

Tuh品论天涯网

Barak尤其对xAI不发布系统卡的决定表示异议。系统卡是行业标准报告,它详细说明了训练方法和安全评估,并真诚地与研究界分享信息。因此,Barak表示,目前尚不清楚Grok4进行了哪些安全训练。Tuh品论天涯网

OpenAI和Google在发布新的AI模型时及时分享系统卡方面声誉不佳。OpenAI决定不发布GPT-4.1的系统卡,声称它并非前沿模型。与此同时,Google在发布Gemini2.5Pro数月后才发布安全报告。然而,这些公司历来都会在所有前沿AI模型全面投入生产之前发布安全报告。
Tuh品论天涯网

巴拉克还指出,Grok的人工智能伙伴“把我们目前面临的最严重的情感依赖问题放大了,并试图将其放大。”近年来,我们看到了无数关于不稳定的人与聊天机器人发展关系的故事,以及人工智能过度顺从的回答如何将他们推向精神崩溃的边缘。Tuh品论天涯网

Anthropic的人工智能安全研究员SamuelMarks也对xAI不发布安全报告的决定提出异议,称此举“鲁莽”。Tuh品论天涯网

Marks在X的一篇文章中写道:“Anthropic、OpenAI和Google的发布实践存在问题。但他们至少做了一些事情,在部署前评估安全性并记录调查结果。xAI却没有。”Tuh品论天涯网

Tuh品论天涯网

在在线论坛LessWrong上广泛分享的一篇帖子中,一位匿名研究人员声称,根据他们的测试,Grok4没有任何有意义的安全护栏。无论真假,世界似乎都在实时发现Grok的缺陷。xAI的几个安全问题已经在网上疯传,该公司声称已经通过调整Grok的系统提示解决了这些问题。Tuh品论天涯网

xAI安全顾问兼人工智能安全中心主任DanHendrycks在X上发帖称,该公司对Grok4进行了“危险能力评估”。然而,这些评估的结果尚未公开分享。Tuh品论天涯网

“当整个人工智能行业不遵守标准的安全实践,比如不公布危险能力评估的结果时,我感到担忧,”曾领导OpenAI安全团队的独立人工智能研究员史蒂文·阿德勒(StevenAdler)在一份声明中表示。“政府和公众有权知道人工智能公司是如何应对他们声称正在构建的强大系统的风险的。”Tuh品论天涯网

xAI的安全实践存在问题,但有趣的是,马斯克长期以来一直是人工智能安全行业最著名的倡导者之一。这位xAI、特斯拉和SpaceX的亿万富翁领袖曾多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果,并赞扬了开发人工智能模型的开放态度。Tuh品论天涯网

然而,竞争对手实验室的AI研究人员声称,xAI偏离了安全发布AI模型的行业规范。马斯克的初创公司这样做,可能无意中为州和联邦立法者制定AI安全报告发布规则提供了强有力的依据。Tuh品论天涯网

各州层面也已展开多项尝试。加州参议员斯科特·维纳(ScottWiener)正在推动一项法案,要求领先的人工智能实验室(可能包括xAI)发布安全报告。纽约州州长凯西·霍楚尔(KathyHochul)目前正在考虑一项类似的法案。这些法案的支持者指出,大多数人工智能实验室都会发布此类信息——但显然,并非所有实验室都能始终如一地这样做。Tuh品论天涯网

当今的人工智能模型尚未在现实世界中展现出造成真正灾难性损害的场景,例如人员死亡或数十亿美元的损失。然而,许多人工智能研究人员表示,鉴于人工智能模型的快速发展以及硅谷为进一步改进人工智能而投入的数十亿美元,这在不久的将来可能成为一个问题。Tuh品论天涯网

但即使对于那些对此类灾难性情景持怀疑态度的人来说,也有强有力的证据表明,Grok的不当行为使得其目前支持的产品变得更糟。Tuh品论天涯网

本周,Grok在X平台上传播反犹太主义,而就在几周前,该聊天机器人还在与用户对话中反复提及“白人种族灭绝”。马斯克表示,Grok将更加深入地融入特斯拉汽车,而xAI正试图将其AI模型出售给五角大楼和其他企业。很难想象,驾驶马斯克汽车的人、保卫美国的联邦工作人员,或是执行自动化任务的企业员工,会比X平台上的用户更容易接受这些不当行为。Tuh品论天涯网

一些研究人员认为,人工智能安全和一致性测试不仅可以确保最坏的结果不会发生,而且还可以防止近期的行为问题。Tuh品论天涯网

至少,Grok的事件往往会掩盖xAI在成立仅仅几年后就在开发超越OpenAI和Google技术的前沿人工智能模型方面取得的快速进展。Tuh品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]