人工智能

顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告

字号+作者: 来源:cnBeta.COM 2023-05-30 19:03 评论(创建话题) 收藏成功收藏本文

一批顶级人工智能研究人员、工程师和首席执行官就他们认为人工智能对人类构成的生存威胁发出了新的警告。这份22个英文词汇的声明被修剪得很短,以使其尽'...

一批顶级人工智能研究人员、工程师和首席执行官就他们认为人工智能对人类构成的生存威胁发出了新的警告。这份22个英文词汇的声明被修剪得很短,以使其尽可能地被广泛接受,内容如下:"减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如大流行病和核战争并列。"60p品论天涯网

60p品论天涯网

这份声明由位于旧金山的非营利组织人工智能安全中心发布,包括GoogleDeepMind首席执行官DemisHassabis和OpenAI首席执行官SamAltman以及GeoffreyHinton和YoushuaBengio在内的人物共同签署了这份声明--他们是因其在人工智能方面的工作而获得2018年图灵奖(有时被称为"计算界的诺贝尔奖")的三位人工智能研究人员中的两位。在撰写本报告时,今年的第三位获奖者、现任Facebook母公司Meta的首席人工智能科学家YannLeCun还没有签字。60p品论天涯网

该声明是对人工智能安全的复杂和有争议的辩论的最新高调干预。今年早些时候,一封由许多支持22字警告的人签署的公开信,呼吁人工智能发展"暂停"6个月。这封信在多个层面受到了批评。一些专家认为它夸大了人工智能带来的风险,而另一些人同意风险,但不同意信中建议的补救措施。60p品论天涯网

人工智能安全中心(CenterforAISafety)的执行董事丹-亨德利克斯(DanHendrycks)告诉《纽约时报》,今天声明的简洁性--没有提出任何潜在的方法来减轻人工智能带来的威胁--是为了避免这种分歧的产生。"我们不想推动一个非常大的30种潜在干预措施的菜单,"亨德利克斯说。"当这种情况发生时,它稀释了信息。"60p品论天涯网

Hendrycks将这一信息描述为担心人工智能风险的行业人士的"出柜"。"有一个非常普遍的误解,甚至在人工智能界,认为只有少数的末日主义者,"亨德利克斯告诉《纽约时报》。"但是,事实上,许多人私下里会对这些事情表示担忧。"60p品论天涯网

这场辩论的大体轮廓是熟悉的,但细节往往是无休止的,是基于人工智能系统迅速提高能力,并不再在安全可控运行下的假设情景。许多专家指出,像大型语言模型这样的系统的迅速改进,证明了未来智能的预期收益。他们说,一旦人工智能系统达到一定的复杂程度,可能会变得无法控制其行动。60p品论天涯网

其他人则怀疑这些预测。他们指出,人工智能系统甚至无法处理相对平凡的任务,比如说,驾驶汽车。尽管在这一研究领域付出了多年的努力和数十亿的投资,但完全自动驾驶的汽车仍远未成为现实。怀疑论者说,如果人工智能连这一个挑战都处理不了,那么在未来几年,这项技术还有什么机会与人类的其他成就相媲美呢?60p品论天涯网

同时,人工智能风险倡导者和怀疑论者都认为,即使不改进其能力,人工智能系统在今天也会带来一些威胁--从它们的使用导致大规模监视,到为错误的"预测性警务"算法提供动力,以及为制造错误信息和虚假信息提供便利。60p品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]