人工智能

研究发现:GPT-3经常出错,重复有害的错误信息

字号+作者: 来源:站长之家 2023-12-25 17:03 评论(创建话题) 收藏成功收藏本文

划重点:⦁ 研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解⦁ 研究发现GPT-3经常出错,自相矛盾,并重复有害的错'...

划重点:rVr品论天涯网

⦁ 研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解rVr品论天涯网

⦁ 研究发现GPT-3经常出错,自相矛盾,并重复有害的错误信息rVr品论天涯网

⦁ 大型语言模型如OpenAI的ChatGPT显示它们重复了阴谋论、有害的刻板印象和其他形式的错误信息rVr品论天涯网

站长之家(ChinaZ.com)12月25日 消息:一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。rVr品论天涯网

机器人上网rVr品论天涯网

图源备注:图片由AI生成,图片授权服务商MidjourneyrVr品论天涯网

最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。rVr品论天涯网

计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”rVr品论天涯网

研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。rVr品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]