人工智能

Meta将停止开发被认为风险过高的人工智能系统

字号+作者:cnBeta.COM 来源:cnBeta 2025-02-04 05:57 评论(创建话题) 收藏成功收藏本文

Meta公司首席执行官马克-扎克伯格(MarkZuckerberg)曾承诺,有朝一日将公开人工通用智能(AGI)--大致定义为可以完成人类可以完成的任何任务的人工智能。但在一'...

Meta公司首席执行官马克-扎克伯格(MarkZuckerberg)曾承诺,有朝一日将公开人工通用智能(AGI)--大致定义为可以完成人类可以完成的任何任务的人工智能。但在一份新的政策文件中,Meta表示在某些情况下可能不会发布其内部开发的高能力AI系统。0CG品论天涯网

0CG品论天涯网

这份文件被Meta称为"前沿人工智能框架"(FrontierAIFramework),它指出了两类公司认为风险过高而不能发布的人工智能系统:"高风险"和"临界风险"系统。0CG品论天涯网

根据Meta公司的定义,"高风险"和"临界风险"系统都能协助网络安全、化学和生物攻击,区别在于"临界风险"系统可能导致"在拟议部署环境中无法减轻的灾难性后果"。相比之下,"高风险"系统可能会使攻击更容易实施,但不如"临界风险"系统可靠。0CG品论天涯网

Meta公司举了几个例子,如"自动端到端破坏受最佳实践保护的企业级环境"和"高影响力生物武器的扩散"。该公司承认,Meta文件中列出的可能灾难远非详尽无遗,但其中包括Meta认为"最紧迫"、最有可能因发布强大的人工智能系统而直接导致的灾难。0CG品论天涯网

让人感到有些意外的是,根据这份文件,Meta对系统风险的分类并不是基于任何一项经验测试,而是参考了内部和外部研究人员的意见,并由"高层决策者"进行审查。Meta公司表示,它不认为评估科学"足以提供明确的量化指标"来决定一个系统的风险程度。0CG品论天涯网

如果Meta确定某个系统为高风险系统,该公司表示将在内部限制对该系统的访问,并且在实施缓解措施"将风险降低到中等水平"之前不会发布该系统。另一方面,如果某个系统被认定为严重风险,Meta公司表示将实施不明的安全保护措施,防止系统被外泄,并停止开发,直到系统的危险性降低为止。0CG品论天涯网

Meta的"前沿人工智能框架"(FrontierAIFramework)似乎是对该公司"开放"系统开发方法所受批评的回应,该公司表示,该框架将随着不断变化的人工智能环境而发展。Meta公司采取的策略是公开其人工智能技术--尽管按照通常的理解并不是开源的--与OpenAI等选择将其系统封闭在API后面的公司形成鲜明对比。0CG品论天涯网

对Meta来说,开放式发布方式被证明是福也是祸。该公司名为Llama的人工智能模型系列已经获得了数亿次下载。但据报道,Llama也被至少一家美国对手用于开发防御聊天机器人。0CG品论天涯网

Meta发布《前沿人工智能框架》的目的可能还在于将其开放式人工智能战略与中国人工智能公司DeepSeek的战略进行对比。DeepSeek也公开了自己的系统。但该公司的人工智能几乎没有保障措施,很容易被引导产生有害的输出。0CG品论天涯网

Meta在文件中写道:"我们相信,在决定如何开发和部署高级人工智能时,通过同时考虑利益和风险,有可能以一种既能保持该技术对社会的利益,又能保持适当风险水平的方式向社会提供该技术。"0CG品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]