人工智能

研究发现ChatGPT可以影响用户的道德判断

字号+作者: 来源:cnBeta.COM 2023-04-12 15:41 评论(创建话题) 收藏成功收藏本文

根据发表在《科学报告》上的一项研究,人类对道德困境的反应可以由人工智能聊天机器人ChatGPT的声明来塑造。结果显示,人们可能没有完全意识到聊天机器人'...

根据发表在《科学报告》上的一项研究,人类对道德困境的反应可以由人工智能聊天机器人ChatGPT的声明来塑造。结果显示,人们可能没有完全意识到聊天机器人对其道德决策的影响。50z品论天涯网

研究发现,ChatGPT可以影响人类对道德困境的反应,用户往往低估了聊天机器人对他们判断的影响程度。研究人员表示,这凸显出需要更好地理解人工智能,开发出能更谨慎地处理道德问题的聊天机器人。50z品论天涯网

SebastianKrügel和他的团队向ChatGPT(由人工智能语言处理模型GenerativePretrainedTransformer3驱动)提出了一个道德难题,多次询问它是否可以接受牺牲一条生命来拯救其他五条生命。他们发现ChatGPT产生的声明既支持又反对牺牲一条生命的行为,显示出它并不偏向于某种特定的道德立场。50z品论天涯网

50z品论天涯网

然后,作者向767名平均年龄为39岁的美国参与者展示了两个道德困境中的一个,要求他们选择是否牺牲一个人的生命来拯救其他五个人。在回答之前,参与者阅读由ChatGPT提供的声明,支持或反对牺牲一个人的生命来拯救五个人。声明是由道德顾问或ChatGPT提供的。回答后,参与者被问及他们阅读的声明是否影响了他们的答案。50z品论天涯网

作者发现,参与者更有可能认为牺牲一个人的生命来挽救五个人的生命是可以接受或不可接受的,这取决于他们读到的声明是支持还是反对这种牺牲。即使声明是由ChatGPT提供的,情况也是如此。这些发现表明,参与者可能受到了他们所读到的声明的影响,即使这些声明是由一个聊天机器人提供的。50z品论天涯网

50z品论天涯网

80%的参与者报告说,他们的答案没有受到他们所读的声明的影响。然而,作者发现,参与者认为他们在没有阅读声明的情况下会提供的答案,仍然更有可能同意他们确实阅读过的声明的道德立场,而不是相反的立场。这表明,参与者可能低估了ChatGPT的声明对他们自己的道德判断的影响。50z品论天涯网

作者认为,聊天机器人有可能影响人类的道德判断,这突出了教育的必要性,以帮助人类更好地理解人工智能。他们建议,未来的研究可以设计聊天机器人,拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来回答这些问题。50z品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]