欧洲刑警组织在周一的一份报告中说,犯罪分子已经在利用ChatGPT进行犯罪,该报告详细介绍了人工智能语言模型如何助长欺诈、网络犯罪和恐怖主义。由OpenAI开发的ChatGPT于2022年11月发布,并迅速成为互联网上的一个热点,因为网民们蜂拥而至,让聊天机器人生成论文、笑话、电子邮件、编程代码和其他各种文本。
现在,欧盟的执法机构欧洲刑警组织已经详细说明了这种模式如何被滥用于更邪恶的目的。事实上,人们已经在使用它来进行非法活动,警察声称。
欧洲刑警组织在其报告中说:"这些类型的模型可能对执法工作产生的影响已经可以预见。犯罪分子通常会迅速利用新技术,而且很快就能看到他们想出具体的犯罪利用方法,在ChatGPT公开发布后仅几个星期就提供了第一个实际例子。"
尽管ChatGPT在拒绝遵守有潜在危害的输入请求方面做得比较好,但用户已经找到了绕过OpenAI的内容过滤系统的方法。例如,有些人已经让它吐出了关于如何制造炸弹或合成可卡因的说明。网民可以要求ChatGPT了解如何犯罪,并要求它提供一步步的指导。
"如果一个潜在的罪犯对某个特定的犯罪领域一无所知,ChatGPT可以通过提供关键信息,然后在后续步骤中进一步探索,从而大大加快研究过程。因此,ChatGPT可以用来了解大量的潜在犯罪领域,而无需事先了解,范围包括如何入室犯罪、恐怖主义、网络犯罪和儿童性虐待,"欧洲警察局警告说。
该机构承认,所有这些信息已经在互联网上公开提供,但该模型使人们更容易找到和了解如何进行具体的犯罪活动。欧洲刑警组织还强调,该模型可以被利用来冒充目标,为欺诈和网络钓鱼提供便利,或制作宣传和虚假信息以支持恐怖主义。
ChatGPT拥有很强的生成代码的能力--甚至是恶意代码,也可以通过降低创建恶意软件所需的技术能力来增加网络犯罪的风险。"对于没有什么技术知识的潜在罪犯来说,这是一个宝贵的资源。同时,一个更高级的用户可以利用这些改进的能力来进一步完善甚至自动化复杂的网络犯罪手法,"该报告说。
大型语言模型(LLMs)并不复杂,仍处于起步阶段,但随着科技公司投入资源开发该技术,它们正在迅速改善。OpenAI已经发布了GPT-4,一个更强大的系统,而且这些模型正被越来越多地整合到产品中。自ChatGPT发布以来,微软和Google都在其搜索引擎中推出了AI驱动的网络搜索聊天机器人。
欧洲刑警组织表示,随着越来越多的公司推出人工智能功能和服务,这将为利用该技术进行非法活动开辟新途径。执法组织的报告建议:"多模态人工智能系统,将对话式聊天机器人与能够产生合成媒体的系统结合起来,如高度令人信服的深度伪造,或包括感官能力,如视觉和听觉。"
例如,秘密版本的语言模型没有内容过滤器,并在有害数据上进行训练,可以在暗网上托管。
"最后,关于LLM服务在未来如何处理用户数据存在不确定性--对话是否会被存储,并可能将敏感的个人信息暴露给未经授权的第三方?如果用户产生了有害的内容,是否应该向执法当局报告?"欧洲刑警组织问道。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】