人工智能

新研究称ChatGPT提供错误编程答案的比例高达52%

字号+作者: 来源:cnBeta 2024-05-25 03:59 评论(创建话题) 收藏成功收藏本文

使用Copilot、Gemini和ChatGPT等生成式人工智能聊天机器人的一大卖点是,与人类回答同样的提示相比,它们可以更快地回答有关编码和编程的问题,从而帮助节省'...

使用Copilot、Gemini和ChatGPT等生成式人工智能聊天机器人的一大卖点是,与人类回答同样的提示相比,它们可以更快地回答有关编码和编程的问题,从而帮助节省时间。然而,最近的一份报告称,ChatGPT在回答编程问题时提供了大量错误答案。Bxa品论天涯网

Bxa品论天涯网

普渡大学的一个研究小组在5月早些时候举行的计算机-人交互大会上提交的一份报告中,检查了发送到ChatGPT回答的517个StackOverflow问题。Bxa品论天涯网

普渡大学的研究小组反馈说,ChatGT为这些编程问题提供错误答案的比例高达52%。Bxa品论天涯网

虽然人工智能聊天机器人提供错误的问题答案也许是意料之中的事,但珀杜大学的研究小组却更进一步指出,人类程序员在35%的情况下仍然更喜欢ChatGPT的答案,"因为它们的回答具有全面性和清晰的语言风格"。更糟糕的是,在39%的情况下,人类程序员并没有发现ChatGPT的错误答案。Bxa品论天涯网

虽然这只是对ChatGPT功能的一个方面进行的研究,但它表明,生成式人工智能机器人仍然容易犯很多错误,而人类可能无法发现这些错误。Bxa品论天涯网

Google的人工智能"概述"(AIOverviews)于今年5月初在美国地区的Google搜索中投入使用,它已经对一些搜索字符串生成了奇怪且充满错误的答案摘要。Google在向新闻机构发表的声明中试图解释这些明显的错误:Bxa品论天涯网

我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经验。绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。Bxa品论天涯网

声明还说,Google将利用这些"孤立的例子"来帮助"完善我们的系统"。Bxa品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]