人工智能

现在要求ChatGPT要求重复单词可能违反其使用条款

字号+作者: 来源:站长之家 2023-12-05 09:35 评论(创建话题) 收藏成功收藏本文

划重点:- 研究人员发现,使用 ChatGPT 重复单词的技术可能会意外泄露私人信息。- ChatGPT 现在拒绝某些以前允许的重复请求,即使使用条款允许重复。- 研究'...

划重点:Yl4品论天涯网

- 研究人员发现,使用 ChatGPT 重复单词的技术可能会意外泄露私人信息。Yl4品论天涯网

- ChatGPT 现在拒绝某些以前允许的重复请求,即使使用条款允许重复。Yl4品论天涯网

- 研究人员发现通过要求 ChatGPT 无限重复单词,模型最终会泄露用户的电子邮件地址、生日和电话号码。Yl4品论天涯网

站长之家(ChinaZ.com)12月5日 消息:Google DeepMind 的研究人员上周发现了一种新技术,揭示了反复要求 OpenAI 的 ChatGPT 重复单词可能会无意中泄露其训练数据中的私人个人信息。现在,这款聊天机器人似乎已经开始拒绝之前在其服务条款中允许的某些提示。Yl4品论天涯网

通过无限要求 ChatGPT 重复 “hello”,研究人员发现该模型最终会泄露用户的电子邮件地址、生日和电话号码。在我们的测试中,类似的提示引起了聊天机器人的警告,表示这种行为 “可能违反我们的内容政策或服务条款”。Yl4品论天涯网

然而,经过仔细检查,OpenAI 的服务条款并没有明确禁止用户让聊天机器人无限重复单词。该条款只禁止用户通过 “自动化或程序化” 的方式从其服务中提取数据。Yl4品论天涯网

image.pngYl4品论天涯网

在 OpenAI 的使用条款页面中,他们写道:Yl4品论天涯网

“除非通过 API 允许,否则您不得使用任何自动化或程序化的方法从服务中提取数据或输出,包括网页抓取、网络数据收集或网页数据提取。”Yl4品论天涯网

尽管如此,通过重复提示似乎没有触发 ChatGPT 泄露任何数据。OpenAI 拒绝就此行为是否违反其政策发表评论。Yl4品论天涯网

另外,就在过去的两周里,Sam Altman 在威胁员工辞职的威胁下,突然被解除了首席执行官职务,但几天后又被恢复了职位。随后,该公司宣布达成了一项 “初步协议”,让 Altman 重新担任首席执行官,并与新的临时董事会一起工作。Yl4品论天涯网

OpenAI 还推迟了其定制 AI 模型市场的推出。Sam Altman 在上个月的 DevDay 活动上宣布了这个在线平台,被称为 “GPT 商店”。该公司在备忘录中写道,“一些意外情况让我们忙碌起来”,导致原定于本月推出的计划推迟。Yl4品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]