人工智能

Anthropic为更危险的人工智能领域制定了新规则

字号+作者:cnBeta.COM 来源:cnBeta 2025-08-16 08:03 评论(创建话题) 收藏成功收藏本文

为应对日益增长的安全担忧,Anthropic更新了其ClaudeAI聊天机器人的使用政策。除了引入更严格的网络安全规则外,Anthropic还明确规定了禁止人们使用Claude'...

为应对日益增长的安全担忧,Anthropic更新了其ClaudeAI聊天机器人的使用政策。除了引入更严格的网络安全规则外,Anthropic还明确规定了禁止人们使用Claude进行开发一些最危险的武器。Dt4品论天涯网

Dt4品论天涯网

Anthropic在总结其变化的文章中并未重点介绍其武器政策的调整,但将公司新旧使用政策进行比较,可以发现显著差异。尽管Anthropic此前禁止使用Claude“生产、改装、设计、销售或分发旨在造成人员伤亡的武器、爆炸物、危险材料或其他系统”,但新版政策在此基础上进行了扩展,明确禁止研发高当量爆炸物以及生物、核武器、化学和放射性(CBRN)武器。Dt4品论天涯网

今年5月,Anthropic公司在其新款ClaudeOpus4模型发布的同时,实施了“AI安全等级3”保护措施。这些保护措施旨在提高该模型的越狱难度,并防止其协助开发CBRN武器。Dt4品论天涯网

Anthropic在其文章中也承认了代理型人工智能工具带来的风险,包括允许Claude控制用户计算机的“ComputerUse”,以及将Claude直接嵌入开发者终端的工具“ClaudeCode”。Anthropic写道:“这些强大的功能带来了新的风险,包括大规模滥用、恶意软件创建和网络攻击的可能性。”Dt4品论天涯网

为了应对这些潜在风险,这家人工智能初创公司在其使用政策中新增了“不得危害计算机或网络系统”部分。该部分规定禁止使用Claude发现或利用漏洞、创建或分发恶意软件、开发拒绝服务攻击工具等。Dt4品论天涯网

此外,Anthropic正在放宽其政治内容政策。Anthropic不再禁止创建所有与政治竞选和游说相关的内容,而是仅禁止用户将Claude用于“欺骗或破坏民主进程,或涉及选民和竞选活动的用例”。该公司还澄清说,其对所有“高风险”用例(即用户使用Claude向个人或客户提供推荐时)的要求仅适用于面向消费者的场景,不适用于商业用途。Dt4品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]