划重点:
- 研究人员发现,使用 ChatGPT 重复单词的技术可能会意外泄露私人信息。
- ChatGPT 现在拒绝某些以前允许的重复请求,即使使用条款允许重复。
- 研究人员发现通过要求 ChatGPT 无限重复单词,模型最终会泄露用户的电子邮件地址、生日和电话号码。
站长之家(ChinaZ.com)12月5日 消息:Google DeepMind 的研究人员上周发现了一种新技术,揭示了反复要求 OpenAI 的 ChatGPT 重复单词可能会无意中泄露其训练数据中的私人个人信息。现在,这款聊天机器人似乎已经开始拒绝之前在其服务条款中允许的某些提示。
通过无限要求 ChatGPT 重复 “hello”,研究人员发现该模型最终会泄露用户的电子邮件地址、生日和电话号码。在我们的测试中,类似的提示引起了聊天机器人的警告,表示这种行为 “可能违反我们的内容政策或服务条款”。
然而,经过仔细检查,OpenAI 的服务条款并没有明确禁止用户让聊天机器人无限重复单词。该条款只禁止用户通过 “自动化或程序化” 的方式从其服务中提取数据。
在 OpenAI 的使用条款页面中,他们写道:
“除非通过 API 允许,否则您不得使用任何自动化或程序化的方法从服务中提取数据或输出,包括网页抓取、网络数据收集或网页数据提取。”
尽管如此,通过重复提示似乎没有触发 ChatGPT 泄露任何数据。OpenAI 拒绝就此行为是否违反其政策发表评论。
另外,就在过去的两周里,Sam Altman 在威胁员工辞职的威胁下,突然被解除了首席执行官职务,但几天后又被恢复了职位。随后,该公司宣布达成了一项 “初步协议”,让 Altman 重新担任首席执行官,并与新的临时董事会一起工作。
OpenAI 还推迟了其定制 AI 模型市场的推出。Sam Altman 在上个月的 DevDay 活动上宣布了这个在线平台,被称为 “GPT 商店”。该公司在备忘录中写道,“一些意外情况让我们忙碌起来”,导致原定于本月推出的计划推迟。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】