聊天机器人ChatGPT在爆红的同时也遭到了滥用。一些学生偷懒利用它写作业或论文,这让老师们头疼不已。不过,ChatGPT开发商OpenAI在周二发布了一款工具,旨在协助显示文本是否由人工智能(AI)程序编写并伪装成人类。
这项工具名为“分类器”(classifier),它能标记出OpenAI产品以及其他AI创作软件编写的内容。不过,OpenAI表示,“它仍有许多局限性,因此应该作为其他确定文本来源方法的补充,而不是作为主要确定工具”。根据OpenAI的评估,只有26%的AI编写的文本被“分类器”正确识别。它还错误标记了9%的人类写作文本是由AI编写的。
OpenAI在周二的一份声明中称,新工具将作为网络应用和其他一些资源提供给教师。ChatGPT的流行引发了人们对作者身份的担忧,因为学生和员工使用机器人来创建报告和内容,并将其伪装成自己的。这也引发了人们对自动生成错误信息活动便利性的担忧。
OpenAI在一篇博客文章中表示:“虽然无法可靠地检测出所有AI编写的文本,但我们相信,好的分类器可以帮助缓解AI生成的文本是由人类编写的虚假声明:例如,发动自动错误信息运动,使用AI工具进行学术欺诈,以及将AI聊天机器人定位为人类。”
自去年11月ChatGPT发布以来,教师们尤其在疲于应对它的流行。学生们很快意识到,这个工具可以生成学期论文和总结材料,尽管偶尔会插入明显的错误。
本月早些时候,普林斯顿大学的学生爱德华·田(EdwardTian)发布了一款名为GPTZero的应用。他说,他在新年期间编写了这款程序来检测AI写作。宾夕法尼亚大学沃顿商学院教授伊桑·莫里克(EthanMollick)为他的课程制定了一项AI政策,允许学生使用ChatGPT,只要他们描述他们使用该程序的目的和使用方式。
与此同时,纽约市的公立学校已经禁止使用ChatGPT,国际机器学习大会(ICML)也采取了同样措施,除非在特定情况下。ICML在其伦理声明中指出,“禁止包含由大型语言模型(LLM)生成的文本的论文,例如ChatGPT,除非这些生成的文本是作为论文实验分析的一部分呈现”。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】