OpenAI受到了似乎是第一起针对ChatGPT生成的虚假信息的诽谤诉讼的打击。在ChatGPT表示沃尔特斯被指控诈骗和挪用非营利组织的资金后,佐治亚州的一位电台主持人马克沃尔特斯正在起诉该公司。
系统根据第三方的请求生成了信息,第三方是一位名叫FredRiehl的记者。Walters的案件于6月5日提交给佐治亚州格威内特县高等法院,他正在向OpenAI寻求未指明的经济补偿。
鉴于对ChatGPT和其他聊天机器人生成的虚假信息的广泛投诉,此案值得注意。这些系统没有可靠的方法来区分事实和虚构,并且当被要求提供信息时——尤其是当被要求确认提问者提出的某件事是真实的时——它们经常会编造日期、事实和数字。
通常,这些捏造只会误导用户或浪费他们的时间。但是这种错误造成伤害的案例开始出现。其中包括一名教授在ChatGPT声称他的学生使用AI撰写论文后威胁打不及格,以及一名律师在使用ChatGPT研究虚假法律案件后可能面临法庭制裁。该律师最近告诉一名法官:“我听说过这个新网站,我错误地认为它是一个超级搜索引擎。”
OpenAI在ChatGPT的主页上包含一个小的免责声明,警告系统“可能偶尔会生成不正确的信息”,但该公司还将ChatGPT作为可靠数据的来源,在广告文案中将系统描述为“获得答案”和“学习”的方式新鲜玩意。”OpenAI自己的CEOSamAltman曾多次表示,与从书本中相比,他更喜欢从ChatGPT中学习新信息。
不过,目前尚不清楚是否有法律先例要求一家公司对AI系统生成虚假或诽谤信息负责,或者这个特定案例是否具有实质性价值。
传统上,在美国,第230条保护互联网公司免受第三方制作并托管在其平台上的信息的法律责任。尚不清楚这些保护措施是否适用于AI系统,这些系统不仅会链接到数据源,还会重新生成信息(这一过程也会导致它们创建虚假数据)。
Walters在佐治亚州提起的诽谤诉讼可以检验这一框架。该案例指出,一名记者FredRiehl要求ChatGPT通过链接到在线PDF来总结一个真实的联邦法院案件。ChatGPT的回应是创建了一份虚假的案例摘要,该摘要详细且令人信服,但在几个方面是错误的。ChatGPT的摘要包含一些事实正确的信息,但也包含对Walters的虚假指控。它说Walters被认为从一个名为第二修正案基金会的枪支权利非营利组织挪用了“超过500万美元”的资金。
Riehl从未公开过ChatGPT生成的虚假信息,而是与另一方核实了细节。从案件文件中不清楚Walters后来是如何发现这一错误信息的。
值得注意的是,尽管遵从了Riehl总结PDF的要求,但如果不使用额外的插件,ChatGPT实际上无法访问此类外部数据。该系统无法提醒Riehl这一事实是其误导用户能力的一个例子。
法学教授尤金·沃洛克(EugeneVolokh)曾撰写过有关人工智能系统法律责任的文章,他在一篇博文中指出,尽管认为“[针对人工智能公司]的此类诽谤指控原则上在法律上是可行的”,但这一特殊诉讼“应该很难被支持。”Volokh指出,Walters没有将这些虚假陈述通知OpenAI,给了他们删除它们的机会,并且ChatGPT的输出没有造成实际损失。“无论如何,看看这里最终会发生什么将会很有趣,”Volokh说。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】