人工智能

2023,我们不得不面对ChatGPT引发的混乱

字号+作者: 来源:中国科学报 2023-02-01 11:21 评论(创建话题) 收藏成功收藏本文

作为全新的人工智能(AI)语言模型,ChatGPT诞生于2022年11月30日。目前,虽然其尚处于试运行阶段,但已经产生了极为震撼的影响。对此,我已在本专栏发表文章《Cha'...

作为全新的人工智能(AI)语言模型,ChatGPT诞生于2022年11月30日。目前,虽然其尚处于试运行阶段,但已经产生了极为震撼的影响。对此,我已在本专栏发表文章《ChatGPT冲击波已来,高等教育应做好准备》(2023年1月10日第3版),探讨了其对全球高等教育所产生的巨大影响。5x4品论天涯网

1月28日,美国“内幕”网站发表文章称,“ChatGPT才出现两个月,就已造成了难以言喻的混乱。”5x4品论天涯网

虽然ChatGPT诞生于去年,却有媒体把2023年视为ChatGPT元年。在我看来,这主要想说明,2023年将是人们不得不面对ChatGPT所引发混乱的一年。5x4品论天涯网

5x4品论天涯网

ChatGPT带来的惊喜与焦虑5x4品论天涯网

自诞生伊始,ChatGPT便受到了人们的狂热关注,各国注册者众多,但往往被告知“现在已经满负荷运转”而无法注册。5x4品论天涯网

历经月余,我终于在不久前注册成功,随后亲历的一些试验结果既令人惊喜和赞叹,也让我和诸多教育工作者一样感到担忧。5x4品论天涯网

我的一个体验是——用英文发出指令,“请写一首包含白雪与树林的(英文)诗歌”。在不到一分钟的时间,ChatGPT就给出了一首近乎完美的英文诗歌。我将其在朋友圈发布后,有许多英文系教授都深感惊喜,并赞叹“水平相当高!写得极好!太神奇了!”5x4品论天涯网

当然,ChatGPT的功能远不止于此。据“内幕”报告称,研究人员最近让ChatGPT通过了美国一项极其艰难的考试——美国医疗执照考试。该考试由三部分组成,报告称,ChatGPT“在没有任何培训或强化的情况下,所有三项考试成绩均达到或接近通过门槛”。这一成绩自然得到人们的夸赞。5x4品论天涯网

然而在称赞背后,人们应该看到ChatGPT之于学术界的焦虑与恐慌。5x4品论天涯网

事实上,在ChatGPT刚刚问世不久,很多人就感受到它给写作带来的巨大威胁。以《大西洋月刊》为例,它在ChatGPT诞生不到10天,便连续发表两篇颇有些耸人听闻的文章,一篇题为《大学中的论文已死》,一篇题为《高中英语的终结》。5x4品论天涯网

将两篇文章对照看,不难发现其所论述的是一回事儿,即从中学到大学,人们在语文教育与通识教育中一直训练学生掌握的写作本领已经走入死胡同。正如《大学中的论文已死》中所说,高校中的论文,尤其是本科生论文,长期作为人文教育的核心,是我们教育学生如何研究、思考和写作的方式。但是,人工智能的出现造成了整个传统即将被彻底颠覆的现象。5x4品论天涯网

《大学中的论文已死》一文还引述加拿大多伦多大学副教授凯文·布莱恩的话——他对ChatGPT的表现深感震惊,认为如此一来,自己就无法再给学生布置课外作业了。5x4品论天涯网

事实上,构建语言技术的工程师和语言教育工作者都没有为这一新生事物的出现及其后果做好准备。5x4品论天涯网

学术界仓促应战5x4品论天涯网

虽然几年前人们已经在谈人工智能时代的到来,但当ChatGPT如海啸般迎面砸来时,学术界基本上还是属于仓促应战。目前看,最主要的应对措施就是政策封堵、禁止使用或限制性使用。5x4品论天涯网

由于学校中已经出现学生使用AI生成的内容冒充个人作业,而人工智能造成的剽窃行为在当下的学术规则中很难得到证明,包括英国、法国、美国在内的诸多教育部门均出台政策,禁止在学校使用ChatGPT。5x4品论天涯网

当然,学术界受到的影响更大。1月26日,《科学》主编索普以社论的形式发表题为《ChatGPT很好玩,但不能成为作者》的文章,称在不到两个月的时间里,ChatGPT已经成为一种文化轰动,且对科学界和学术界造成严重影响。5x4品论天涯网

ChatGPT对撰写科学论文所带来的影响很令人担忧。他说,人们在最近的一项研究中发现,有大量由ChatGPT创建的论文摘要被提交给学术审稿人,但被发现比例不超过63%。他预计,今后这种由人工智能生成的文本将会更多。5x4品论天涯网

索普强调,多年来,《科学》系列期刊的作者会签署一份许可证,证明“该作品是原创的”。对于该刊来说,这足以表明ChatGPT所编写的文本是不可接受的——毕竟它是从ChatGPT中抄袭而来。5x4品论天涯网

索普说,我们现在正在更新编辑规则,强调不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本,数字、图像或图形也不行。他特别强调,人工智能程序不能成为作者。如有违反,将构成科学不端行为,这与窜改图像或抄袭无异。5x4品论天涯网

在《科学》发表社论的前两天,《自然》也发表文章指出ChatGPT等工具威胁着科学的透明度,进而宣示该刊使用它们的基本规则,即任何人工智能工具都不会被接受为研究论文的署名作者,因为任何作者都承担着对所发表作品的责任,而人工智能工具无法做到这点。文章同时指出,如果研究人员使用了有关程序,应该在方法或致谢部分加以说明。5x4品论天涯网

包括《细胞》《柳叶刀》等在内的诸多科学类期刊也都发布了与此大体一致的规则。5x4品论天涯网

5x4品论天涯网

高校被迫修改反剽窃条例5x4品论天涯网

相比科学界,高校受到的影响更大。5x4品论天涯网

1月22日,美国斯坦福大学的《每日斯坦福》发表文章称,根据该报进行的一项非正式民意调查,有大量学生已经在期末考试中使用了ChatGPT。1月28日,《福布斯》发表文章称,“89%的学生承认使用ChatGPT做家庭作业,教育工作者正在与剽窃作斗争”。5x4品论天涯网

若想知道问题的严重性,不妨来看看《福布斯》对学生所做的详细调查。5x4品论天涯网

其中,48%的学生承认使用ChatGPT进行家庭测试或测验。5x4品论天涯网

53%的学生用它写了一篇论文,22%的学生用它写了一篇论文的大纲。72%的大学生认为ChatGPT应在他们的大学网络中被禁用。5x4品论天涯网

同时,在对ChatGPT有所了解的大学教授中,有72%的教授担心其用于作弊;超过1/3的教育工作者认为,ChatGPT应该在学校尤其是大学中被禁止,而66%的人支持学生使用它。5x4品论天涯网

学生之所以对此趋之若鹜,实在是因为ChatGPT的功能过于强大。5x4品论天涯网

根据美国宾夕法尼亚大学沃顿商学院MBA教授泰维奇的说法,ChatGPT在常青藤联盟MBA级别的运营管理考试中的表现能获得“B或B-”的成绩。据《华尔街日报》报道,美国犹他州韦伯州立大学的一位教授要求ChatGPT用他的声音写一条推文。几分钟内,该程序发出了十几条消息。这位教授对此的反应是,“天哪!这是有史以来最伟大的作弊工具。”5x4品论天涯网

由此,是否禁止ChatGPT真的成了人们需要面对的一个问题。当然,更多教师在思考该如何在自己的课程、学习指南中去部署阻止作弊的策略,并确保学生学会独立思考。5x4品论天涯网

美国一些高校已经将新技术纳入其学术诚信中。华盛顿大学和佛蒙特大学等已经修改了它们的学术诚信策略,将使用ChatGPT等人工智能工具纳入剽窃等学术不端范围。5x4品论天涯网

能否拓展使用5x4品论天涯网

当然,也有一些教师对ChatGPT的出现与发展持更积极的态度。5x4品论天涯网

据报道,宾夕法尼亚大学沃顿商学院副教授莫里克鼓励自己的学生使用ChatGPT。在他看来,“我们已经身处人工智能的世界,那就让我们分享人工智能的成果吧”。5x4品论天涯网

需要注意的是,莫里克在接受采访时说:“即使我不要求(他们使用ChatGPT),也可能无法阻止他们(去使用)。”这其中的无奈需要引起我们的关注。5x4品论天涯网

莫里克也承认,对于人工智能如何改变课堂评估,自己同样焦虑,但他认为教育工作者要与时俱进。他强调,当年高校曾经教学生如何在一个有计算器的世界里做数学,现在高校面临的挑战是要让学生意识到,世界再次发生变化,我们要教会他们怎样适应这种变化。5x4品论天涯网

赞同者中,有人持一个有趣的观点——目前专门校订英语写作中语法问题的人工智能程序Grammarly早已出现,既然人们可以使用它修改自己的语法、语汇等,为什么不能将ChatGPT视为此类程序的一种扩展呢?5x4品论天涯网

值得注意的是,近日,《美国高等教育纪事》发布公告,该报将与大学创新联盟主办网络会议,讨论“用于学生的人工智能工具”。5x4品论天涯网

该报指出,人工智能已经广泛应用于多个领域,但随着其进入高等教育,如何使其成为以学生为中心的使用工具?高校是否会采用人工智能已经不再是一个问题,现在关注的是如何合乎道德且高效地应用人工智能,改善学生的体验。5x4品论天涯网

希望教育领域、学术界和技术专家在此次会议上围绕高教机构如何从人工智能中受益展开讨论。5x4品论天涯网

对此,我们不妨拭目以待。5x4品论天涯网

《中国科学报》(2023-01-31第3版 大学观察原标题为《ChatGPT:“堵”还是“疏”,这是个问题》)5x4品论天涯网

文|郭英剑(中国人民大学首都发展与战略研究院副院长)5x4品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]