研究人员利用人工智能创建了一种方法,通过在用户发布评论之前向其提供重新措辞的建议,来提高有关两极分化话题的在线讨论的质量和文明程度。他们表示,如果使用得当,人工智能可以用来创建一个更友好、更安全的数字环境。
现在,在线对话在公共讨论中发挥着核心作用。但是,社交媒体平台和数字新闻媒体的评论区充斥着演变成争论、威胁和谩骂的讨论,尤其是当讨论涉及到有分歧的话题时。
现在,杨百翰大学(BYU)和杜克大学的研究人员开发出了人工智能,它可以调节在线聊天,提高聊天质量并促进文明。
他们招募了1574名参与者进行实地实验,要求他们参与有关美国枪支管理的在线讨论,这是一个经常在政治辩论中提出的具有分歧的问题。每位参与者都与对枪支政策持反对意见的人配对。
配对成功后,对话双方被随机分配到处理或控制条件中,然后开始对话。在处理对话中,一名参与者在发送信息前会收到来自GPT-3的三条重新措辞的建议。参与者可以选择发送人工智能建议的三个替代方案之一、自己的原始信息或编辑任何信息。
每次对话中平均发送12条信息,人工智能共建议2,742条改写信息。参与者有三分之二的时间接受了人工智能建议的改词。实施了一个或多个人工智能改写建议的人的聊天伙伴表示,他们的对话质量明显提高,而且更愿意倾听政治对手的观点。
这项研究的共同作者之一戴维-温盖特(DavidWingate)说:"我们发现,重新措辞的使用频率越高,参与者就越有可能感觉到对话并没有造成分裂,他们感觉到自己被倾听和理解了。"
研究人员说,他们的研究结果表明,这种可扩展的解决方案可以打击充斥互联网的有毒网络文化。他们说,这比关于网络文明的专业培训课程更容易实施,因为人工智能干预可以在各种数字渠道广泛实施,而专业培训课程的范围和可用性都有限。
研究人员说,这项研究最终表明,如果使用得当,人工智能可以在创造更加积极的网络环境方面发挥重要作用,促进富有同情心和尊重他人的讨论。
温盖特说:"我希望我们能继续让更多的比亚迪大学学生建立这样的亲社会应用,并希望比亚迪大学能在展示使用机器学习的道德方式方面成为领导者。在这个由信息主导的世界里,我们需要能够以积极的、对社会有益的方式去处理世界信息的学生。"
这项研究发表在《美国国家科学院院刊》(PNAS)上。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】