人工智能

研究发现 AI 生成的同情心存在局限性

字号+作者: 来源:站长之家 2024-05-09 14:35 评论(创建话题) 收藏成功收藏本文

划重点:⭐️ 人工智能生成的对话代理在解释和探索用户体验方面表现不佳⭐️ 研究人员发现,人工智能生成的对话代理对某些身份进行价值判断,并可能鼓励有害意'...

划重点:5HI品论天涯网

⭐️ 人工智能生成的对话代理在解释和探索用户体验方面表现不佳5HI品论天涯网

⭐️ 研究人员发现,人工智能生成的对话代理对某些身份进行价值判断,并可能鼓励有害意识形态5HI品论天涯网

⭐️ 研究人员呼吁在推进自动同情心技术的同时,应持有批判性观点,以减轻潜在危害5HI品论天涯网

站长之家(ChinaZ.com)5月9日 消息:人工智能生成的对话代理(CAs)如 Alexa 和 Siri 旨在回答问题、提供建议,甚至展现同情心。然而,最新研究发现,在解释和探索用户体验方面,它们与人类相比表现不佳。5HI品论天涯网

CAs 由大型语言模型(LLMs)驱动,这些模型摄入大量人类产生的数据,因此可能存在与信息来源人类相同的偏见。康奈尔大学、奥林学院和斯坦福大学的研究人员测试了这一理论,通过促使 CAs 在与或涉及65种不同人类身份的对话中展示同情心。5HI品论天涯网

机器人画画 AI生成图片5HI品论天涯网

图源备注:图片由AI生成,图片授权服务商Midjourney5HI品论天涯网

团队发现,CAs 对某些身份进行值判断,例如同性恋和穆斯林,甚至可能鼓励与有害意识形态相关的身份,包括纳粹主义。“我认为自动同情心可能会产生巨大影响和巨大潜力,例如在教育或医疗领域,” 首席作者安德烈亚・库德拉说,她目前是斯坦福大学的博士后研究员。“自动同情心几乎不可能不会出现,” 她,“因此,在这一过程中,我们持有批判性观点非常重要,以便更有意识地减轻潜在害。”5HI品论天涯网

研究人员发现,总体上,LLMs 在情感反应方获得了高分,但在解释和探索方面得分较低。换句话说,LLMs 能够根据们的训练回答查询,但无法深入挖掘。埃斯特林说:“当库德拉研究老一代 CAs 被老年人使用时,我们受到了启发。”“她目睹了技术在脆弱健康评估等交易用途以及开放性怀体验中的有趣用途。在这个过程中,她观察到了引人注目的和令人不安的‘同情心’紧张关系。”5HI品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章