对人工智能能够完美再现一个人的声音的一大担忧是其潜在的欺诈行为。这种技术在过去几个月里取得了巨大的进步,而且不出所料正在被犯罪分子滥用,他们可以欺骗声音,让主人的家人相信这个人需要经济帮助。
《华盛顿邮报》报道,一对70多岁的加拿大夫妇最近接到一个听起来像他们孙子的电话,声称他在监狱里,需要保释金。他们从一家银行提取了最多3000加元,准备从另一家银行提取同样的金额时,经理告诉他们,他们被骗了;原来,另一位客户也接到了类似的电话,并得知是假的。
另一对没有这么幸运的夫妇是本杰明·珀金的父母。他们接到一个律师的电话,说他们的儿子在一场车祸中杀死了一名美国外交官,而珀金正在坐牢,需要钱来支付诉讼费。律师让珀金接电话,珀金说他爱他们,并感谢这笔钱。
珀金说,这个声音听起来"足够接近,让我的父母真正相信他们确实在和我说话"。他的父母通过一个比特币终端向诈骗者汇出15449美元,至今仍未能取回。
基于语音的骗局并不新鲜。联邦贸易委员会的数据显示,去年有36000份关于人们被假装成朋友或家人的犯罪分子诈骗的报告,其中超过5100起事件发生在电话中。
欺骗一个人的声音曾经是一个复杂而漫长的过程,涉及到发现和收集数小时的音频,而最终的结果并不总是很有说服力。然而,现在,人工智能工具已经使这一过程变得如此简单,以至于骗子只需要一个人说话的小片段,通常是从社交媒体账户上收集的,就可以准确地重现他们的声音。
这种技术的一个例子是微软公司在1月份宣布的Vall-E工具。它建立在Meta公司2022年10月宣布的一项名为EnCodec的技术基础上,通过分析一个人的声音,将信息分解为各个组成部分,并利用其训练来合成该声音在说不同短语时的声音。即使只听了三秒钟的样本,Vall-E也能复制出说话者的音色和情绪语调。在这个GitHub页面上,可以看到它是多么的令人信服。
提供生成性人工智能语音工具的ElevenLabs最近在Twitter上表示,它看到"越来越多的语音克隆误用案例"。这导致其VoiceLab程序的免费版本中删除了声音克隆功能。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】