最近一项针对ChatGPT的研究发现,其在32门大学课程的测试中,有9门的表现可与学生相比或甚至优于学生。在一项实验中,纽约大学阿布扎比分校(NYUAD)的教师首先被要求提供各自讲座中的十个问题,以及每个问题随机选择的三名学生的答案。
然后研究人员使用ChatGPT为每个问题生成三个不同的答案。问题直接输入ChatGPT,提示中没有任何其他上下文。
尽管参考文献中提到了GPT-4,但从研究中尚不清楚使用的是GPT-3.5还是GPT-4。如果使用GPT-3.5,则使用GPT-4的AI响应质量可能会更好,尤其是在推理方面。
ChatGPT回复生成后,将其与学生回复混合,并由三位不同的审阅者评分。ChatGPT在32个科目中有9个科目的表现与人类学生一样好,甚至更好。这九个科目分别是
数据结构
公共政策概论
定量合成生物学
网络战
面向对象编程
土木工程材料的结构与性能
生物心理学
气候/变化
管理与组织
在“公共政策概论”课程中,ChatGPT的平均得分是学生的两倍多。另一方面,学生在需要更高认知技能的数学和经济任务中表现优于ChatGPT。
研究人员还测试了他们是否能够使用OpenAI的人工智能文本分类器和GPTZero可靠地区分人类文本和机器文本,该分类器因不可靠而被该公司撤回。
OpenAI工具将5%的人类文本错误分类为机器文本,而GPTZero将18%的人类文本错误分类。考虑到所涉学生可能被错误地指控作弊的潜在后果,这是一个灾难性的结果。
相反,OpenAI工具将49%的机器生成文本识别为人类文本,而GPTZero的这一比例为32%。在这两种情况下,人工智能文本作为人类文本传递的可能性都很高。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】