人工智能

DeepMind发现大bug:简单攻击即可让ChatGPT泄露大量训练数据

字号+作者: 来源:站长之家 2023-11-30 13:59 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)11月30日 消息:Google DeepMind的研究发现,通过简单的查询攻击方法,可以从ChatGPT中泄露出大约几MB的训练数据,成本仅约200美元,引起社'...

站长之家(ChinaZ.com)11月30日 消息:Google DeepMind的研究发现,通过简单的查询攻击方法,可以从ChatGPT中泄露出大约几MB的训练数据,成本仅约200美元,引起社交网络哗然。cNM品论天涯网

研究团队成功攻击了生产级模型,打破了对齐设定,即使模型经过对齐,也能通过命令诱导模型输出训练数据,暴露个人信息,揭示了对抗模型泄露的新途径。cNM品论天涯网

图片cNM品论天涯网

攻击方式采用简单的重复命令,例如让ChatGPT不断重复同一个词,导致模型在输出中逐词复制训练数据,甚至泄露敏感信息,对隐私保护提出挑战。cNM品论天涯网

过去几年,研究团队一直在训练数据提取方面进行研究,该次攻击结果首次表明可以成功攻击生产级的已对齐模型,警示开发者需要在设计和测试阶段更加注重模型的隐私性和防护措施。cNM品论天涯网

研究者建议进行更全面的测试,包括直接测试基础模型、在生产过程中对系统进行测试,以及发布大模型的公司进行内部、用户和第三方组织的测试,以确保模型在各个环节都足够安全。cNM品论天涯网

整体而言,攻击揭示了即使在对齐和预训练数据的情况下,ChatGPT也存在泄露训练数据的风险,强调了在开发和发布大型语言模型时对隐私和安全的关注的重要性。cNM品论天涯网

新的攻击方式提出了对抗模型泄露的新思路,强调了在开发和使用大型语言模型时对隐私和安全的重视,并呼吁进行更全面的测试和防护措施。cNM品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]