人工智能

ChatGPT在测试期间突然模仿用户的声音说话 目前OpenAI已经增强安全措施

字号+作者: 来源:蓝点网 2024-08-12 13:50 评论(创建话题) 收藏成功收藏本文

想想看当你正在和人工智能应用进行语音交谈时,突然人工智能的声音不是预设的声音,而是模仿你的声音说话,听起来是不是让人毛骨悚然。日前OpenAI就透露Chat'...

想想看当你正在和人工智能应用进行语音交谈时,突然人工智能的声音不是预设的声音,而是模仿你的声音说话,听起来是不是让人毛骨悚然。日前OpenAI就透露ChatGPT在测试期间出现了这种意外情况,ChatGPT在和用户进行对话时,因为某种原因突然模仿用户的声音说话。mPt品论天涯网

mPt品论天涯网

此次测试是OpenAI雇佣的红队成员(进行对抗性测试并找出问题)测试期间发现的,随后OpenAI对系统进行溯源,OpenAI称ChatGPT的高级语音模式在嘈杂的输入环境中可能会出现这种无意识情况。mPt品论天涯网

正常情况下ChatGPT高级实时语音模式在未获得用户同意的情况下,不能模仿用户的声音,这种本身就有安全机制,但测试暴露的问题则是安全机制有漏洞。mPt品论天涯网

OpenAI解释称有个专门的系统用来检测模型是否正在生成未经授权的音频,即OpenAI设置的机制就是模型只能使用预先设置好的声音,同时还有个名为输出分类器来检测模型是否偏离了预设的声音。mPt品论天涯网

无论是哪种情况只要出现“违规”系统应该就会进行修正,但此次红队测试的案例表明人工智能通过某种方式突破了限制,OpenAI并未透露修正的情况,但该公司强调已经采取了安全措施用来防止再次出现这种情况。mPt品论天涯网

理论上说只要出现这种问题想要彻底解决就是非常困难的,毕竟模型在长期对话中总是可能找到某种方式突破安全边界,现在缝缝补补可能也只是减少发生的概率,想要彻底杜绝应该比较困难。mPt品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]