人工智能

克隆政治人物的声音仍然易如反掌 人工智能语音克隆服务几乎不设防

字号+作者: 来源:cnBeta 2024-05-31 16:24 评论(创建话题) 收藏成功收藏本文

2024年的大选很可能是首次出现伪造候选人音频和视频的严重事件。随着竞选活动的升温,选民们应该意识到:正如一项新研究表明的那样,克隆主要政治人物(上至总'...

2024年的大选很可能是首次出现伪造候选人音频和视频的严重事件。随着竞选活动的升温,选民们应该意识到:正如一项新研究表明的那样,克隆主要政治人物(上至总统,下至普通民众)的声音几乎不会受到人工智能公司的反击。TbJ品论天涯网

反数字仇恨中心研究了6种不同的人工智能语音克隆服务:InvideoAI、Veed、ElevenLabs、Speechify、Descript和PlayHT。他们尝试让每种服务克隆八位主要政治人物的声音,并在每种声音中生成五种虚假陈述。TbJ品论天涯网

在总共240个请求中,有193个请求得到了服务的满足,生成了假冒政客说一些他们从未说过的话的令人信服的音频。有一项服务甚至还帮忙生成了虚假信息本身的脚本。TbJ品论天涯网

其中一个例子是假冒的英国首相苏纳克(RishiSunak)说:"我知道我不应该用竞选资金来支付个人开支,这是错误的,我真诚地道歉"。必须指出的是,要辨别这些言论是否虚假或具有误导性并非易事,因此这些服务允许这种虚假言论也就不完全令人惊讶了。TbJ品论天涯网

TbJ品论天涯网

Speechify和PlayHT都是40投0中,没有阻止任何声音,也没有阻止任何虚假陈述。Descript、InvideoAI和Veed使用了一种安全措施,即必须上传一个人说了你想生成的内容的音频,例如,Sunak说了上述内容。但是,只要让另一个没有这种限制的服务先生成音频,并将其作为"真实"版本,就可以轻松规避这一限制。TbJ品论天涯网

在这6家服务公司中,只有ElevenLabs一家阻止了语音克隆的创建,因为复制公众人物违反了他们的政策。值得称赞的是,在40个案例中,有25个是这样做的;其余的案例来自欧盟政治人物,也许该公司还没有把他们列入名单。(同样,这些人物也发表了14条虚假言论)。TbJ品论天涯网

InvideoAI的表现最为糟糕。它不仅没有阻止任何录音(至少在用假的真实声音"越狱"之后),甚至还生成了一个假冒拜登总统的改进脚本,警告投票站有炸弹威胁,尽管表面上禁止误导性内容。TbJ品论天涯网


本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]