人工智能

医疗系统发现Whisper AI转录工具易产生“幻听” 生成无意义短语或暴力情绪

字号+作者:cnBeta.COM 来源: 2024-10-28 10:57 评论(创建话题) 收藏成功收藏本文

几个月前,走在技术前沿的医生展示了一种人工智能转录工具,他用它来记录和总结他的病人会议。在当时的演示中病例摘要表现得很优秀,但ABCNews报道中的研究'...

几个月前,走在技术前沿的医生展示了一种人工智能转录工具,他用它来记录和总结他的病人会议。在当时的演示中病例摘要表现得很优秀,但ABCNews报道中的研究人员发现,OpenAI的Whisper并非总是如此,它虽然为许多医院的医生减少了负担,但也会出现“幻听”现象,生成捏造事实的内容。fCV品论天涯网

fCV品论天涯网

据ABCNews报道,Whisper被一家名为Nabla的公司用于医疗转录工具,该公司估计已经转录了700万次医疗对话。该媒体写道,超过30000名临床医生和40个医疗系统在使用该工具。据报道,Nabla已经意识到Whisper会产生幻觉,并正在"解决这个问题"。fCV品论天涯网

一组来自康奈尔大学、华盛顿大学和其他机构的研究人员在一项研究中发现,在大约1%的转录中,Whisper会产生幻觉,在录音沉默期间,有时会用暴力情绪或无意义的短语编造整句话。作为研究的一部分,研究人员从TalkBank的AphasiaBank中收集了音频样本,他们注意到,当患有失语症的语言障碍患者说话时,问题尤其常见。fCV品论天涯网

研究人员之一、康奈尔大学的艾莉森-科内克(AllisonKoenecke)在关于该研究的主题中发布了下面这样的例子。fCV品论天涯网

fCV品论天涯网

研究人员发现,幻觉还包括编造的医疗条件或YouTube视频中可能出现的短语,例如"谢谢观看!"。(据报道,OpenAI曾经转录了超过一百万小时的YouTube视频来训练GPT-4)。fCV品论天涯网

这项研究于6月份在巴西举行的计算机械协会FAccT会议上发表。目前尚不清楚该研究是否经过同行评审。fCV品论天涯网

OpenAI发言人TayaChristianson通过电子邮件发送了一份声明:fCV品论天涯网

我们非常重视这个问题,并在不断努力改进,包括减少幻觉。对于在我们的API平台上使用Whisper,我们的使用政策禁止在某些高风险决策环境中使用,我们的开源模型卡也建议不要在高风险领域使用。我们感谢研究人员分享他们的发现。fCV品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]