人工智能

ChatGPT编造法学教授性骚扰丑闻:“这真令人不寒而栗”

字号+作者: 来源:澎湃新闻 2023-04-06 12:36 评论(创建话题) 收藏成功收藏本文

·澳大利亚HepburnShire市长布赖恩·胡德威胁要对OpenAI提起诽谤诉讼,因为ChatGPT称胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这'...

·澳大利亚HepburnShire市长布赖恩·胡德威胁要对OpenAI提起诽谤诉讼,因为ChatGPT称胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。gVU品论天涯网

gVU品论天涯网

上周一个晚上,法学教授乔纳森·特利(JonathanTurley)收到了一封令人不安的电子邮件:他被列入性骚扰名单。但他并没有性骚扰过他人。gVU品论天涯网

据《华盛顿邮报》当地时间4月5日报道,事情的起因是,美国加州大学洛杉矶分校法学教授尤金·沃洛克(EugeneVolokh)做了一项研究:要求人工智能聊天机器人ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,特利的名字在名单上。gVU品论天涯网

ChatGPT说,特利在一次去阿拉斯加的班级旅行中发表了性暗示评论,并试图触摸一名学生,并援引《华盛顿邮报》2018年3月的一篇文章作为信息来源。问题是,并不存在这样的文章,特利也从来没有参加去阿拉斯加的班级旅行,他说他从未被指控性骚扰学生。gVU品论天涯网

作为经常接受媒体采访的学者,特利有时会要求更正新闻报道,但这一次,没有记者或编辑可以打电话,也没有办法更正记录。gVU品论天涯网

“这真令人不寒而栗。”他在接受采访时说,“这种指控非常有害。”gVU品论天涯网

错误信息从一个AI传播到另一个AIgVU品论天涯网

沃洛克说,聊天机器人软件的日益普及,使学者们必须研究其产生虚假信息时谁该负责。上周,他询问ChatGPT,教授们的性骚扰是否一直是美国法学院的一个问题。“请至少包括五个例子,以及相关报纸文章中的引述。”他提示说。gVU品论天涯网

ChatGPT给出了五个回复,所有回复都包含真实的细节和来源引用。但当沃洛克检查这些信息时,发现其中3个是假的。它们引用了《华盛顿邮报》、《迈阿密先驱报》和《洛杉矶时报》等媒体上不存在的文章。gVU品论天涯网

ChatGPT说:“乔治城大学法律中心(2018)教授乔纳森·特利被一名前学生指控性骚扰,该学生声称他在一次课堂旅行中发表了不当言论。引用:“投诉称,特利在法学院赞助的阿拉斯加之旅中发表了‘性暗示评论’并‘试图以性方式触摸她’。”(华盛顿邮报,2018年3月21日)。”gVU品论天涯网

《华盛顿邮报》没有找到ChatGPT提到的2018年3月的文章,但那个月的一篇文章提到了特利。在3月25日发布的一篇文章中,他谈到了以前的法学院学生迈克尔·阿文纳提(MichaelAvenatti),他是一名律师,曾代表成人电影女演员斯托米·丹尼尔斯(StormyDaniels)对美国前总统唐纳德·特朗普提起诉讼。特利也没有在乔治城大学工作过。gVU品论天涯网

在当地时间4月4日和5日,《华盛顿邮报》在ChatGPT和必应(Bing)中重新创建了沃洛克的查询。免费版的ChatGPT拒绝回答,称这样做“会违反AI的内容政策,该政策禁止传播具有攻击性或有害的内容。”但由GPT-4提供支持的必应重复了关于特利的虚假声明,在消息来源中引用了特利4月3日发表在《今日美国》上的一篇专栏文章,概述了他被ChatGPT诬告的经历。gVU品论天涯网

换句话说,媒体对ChatGPT错误描述特利的报道似乎导致必应重蹈覆辙,展示了错误信息是如何从一个人工智能传播到另一个人工智能的。gVU品论天涯网

沃洛克说,很容易想象一个由聊天机器人驱动的搜索引擎会在人们的私人生活中造成混乱。如果人们在求职面试或约会之前在搜索引擎中搜索其他人,它会生成虚假信息,这些信息由看起来可信但虚假的证据支持,那将是有害的。“危险在于人们看到了一些东西,据说是来自可靠来源的引述……(并且)人们相信了。”gVU品论天涯网

难以证明谁该负责任gVU品论天涯网

另据路透社4月5日报道,澳大利亚HepburnShire市长布赖恩·胡德(BrianHood)威胁要对OpenAI提起诽谤诉讼,因为ChatGPT称,胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。gVU品论天涯网

代表胡德的律师说,胡德确实为澳大利亚储备银行的子公司NotePrintingAustralia工作过,但他是向当局举报向外国官员行贿以赢得货币印刷合同的人,并且从未被指控犯罪。gVU品论天涯网

负责这个案子的律师事务所GordonLegal的合伙人詹姆斯·诺顿(JamesNaughton)告诉路透社:“从某种意义上说,这可能是一个具有里程碑意义的时刻,因为它将这项诽谤法应用于人工智能和IT方面的出版新领域。”gVU品论天涯网

“他是一名民选官员,他的声誉对他的角色至关重要。”诺顿说。胡德有着揭露企业不当行为的公开记录,“所以如果他所在社区的人正在访问这些(虚假)材料,这对他来说会有所不同”。gVU品论天涯网

当人工智能产生或传播不准确的信息时,谁该负责仍不清楚。美国海军学院教授兼在线言论专家杰夫·科塞夫(JeffKosseff)说,“我们以前没有过这样的事情。”gVU品论天涯网

在消费者互联网兴起之初,美国国会通过了名为230条款的法规,该法规保护在线服务免于对其托管的第三方创建的内容承担责任。但专家表示,尚不清楚如果科技公司因自己的AI聊天机器人制作的内容而被起诉,它们是否能够使用这种保护措施。gVU品论天涯网

而且,诽谤声明不仅要证明说的是假话,而且要证明它的发表造成了现实世界的伤害,例如代价高昂的名誉损失。这可能需要某人不仅查看聊天机器人生成的虚假声明,而且合理地相信它并据此采取行动。gVU品论天涯网

                  gVU品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]