人工智能

科技公司担忧,澳大利亚新标准或削弱AI保护在线安全能力

字号+作者: 来源:站长之家 2024-02-29 16:00 评论(创建话题) 收藏成功收藏本文

划重点:1. 澳大利亚新发布的在线安全标准,被科技公司如微软、Meta等指责可能影响AI系统保护儿童安全和防范恐怖主义材料的效能。2. 标准针对生成式人工'...

划重点:miW品论天涯网

1. 澳大利亚新发布的在线安全标准,被科技公司如微软、Meta等指责可能影响AI系统保护儿童安全和防范恐怖主义材料的效能。miW品论天涯网

2. 标准针对生成式人工智能(generative AI)潜在的滥用潜力,但微软等公司表示其侦测有问题内容的能力可能受损。miW品论天涯网

3. 技术公司担心新标准可能使AI训练受限,降低其对儿童虐待和恐怖主义材料的精准侦测,强调AI在内容审查中的关键作用。miW品论天涯网

站长之家(ChinaZ.com)2月29日 消息:澳大利亚近期发布的新在线安全标准引起了科技公司的担忧,特别是微软、Meta和Stability AI等。这些标准旨在规范生成式人工智能(generative AI)等技术,以防止其被滥用,但科技公司担心这可能对其AI系统的保护在线安全的能力产生负面影响。miW品论天涯网

根据去年监管机构发布的两项旨在保护儿童安全的强制性标准草案,澳大利亚的eSafety专员朱莉·英曼·格兰特(Julie Inman Grant)提出,服务提供商应在技术上可行的情况下检测和删除儿童虐待材料和恐怖主义材料,同时阻止和威慑这类新材料。这些标准覆盖了多种技术,包括网站、云存储服务、短信和聊天应用,还包括高影响的生成式人工智能服务和开源机器学习模型。miW品论天涯网

脑机接口 AI机器人miW品论天涯网

图源备注:图片由AI生成,图片授权服务商MidjourneymiW品论天涯网

在对这些标准进行的咨询中,WeProtect Global Alliance等一百多个政府和七十家公司的非营利联盟强调了eSafety试图解决的问题的本质。他们表示,开源AI已经被用于制作儿童虐待材料和深度伪造,而提议的标准涵盖了正确的平台和服务。miW品论天涯网

然而,微软、Meta和Stability AI等科技公司则表示,他们的技术正在开发中,已经设置了防范措施,以防止其被用于不当目的。微软警告说,草案中的标准可能限制其用于侦测和标记儿童虐待或恐怖主义材料的AI安全模型的效力。微软表示,确保AI模型和安全系统(如分类器)能够被训练来检测和标记这类内容,需要让AI接触这类内容,并建立评估流程来衡量和减轻风险。miW品论天涯网

Stability AI同样警告说,AI将在在线内容审查中发挥重要作用,过于宽泛的定义可能使确定必须符合拟议标准的内容变得更加困难。miW品论天涯网

Meta公司表示,虽然其Llama2模型配备了安全工具和负责任的使用指南,但在工具下载后很难执行防护措施。Google建议在标准中不包含AI,而是将其完全视为当前政府对在线安全法和基本在线安全期望进行审查的一部分。miW品论天涯网

最终版本的标准将在今年晚些时候提交国会审议。英曼·格兰特在一份声明中表示,这些标准不会要求行业破坏或削弱加密,监视文本或无差别地扫描大量个人数据。她正在考虑对此进行澄清的可能修订。miW品论天涯网

AI

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]