最新研究表明,使用人工智能工具给朋友撰写信息可能不是最好的选择,尤其是当朋友得知人工智能参与其中时。研究显示,与手动撰写信息的朋友相比,参与者认为使用人工智能撰写信息的虚构朋友显得不那么真诚。
这项研究的主要作者、俄亥俄州立大学传播学助理教授刘冰洁(BingjieLiu)表示,这种看法或许可以理解,但其影响却不仅仅局限于信息的内容。
刘冰洁说:"在收到人工智能辅助信息后,人们会对自己与朋友的关系感到不太满意,并对自己的立场感到更加不确定。"
但为了对人工智能公平起见,让人们反感的不仅仅是技术的使用。研究还发现,当人们得知他们的朋友在写信息时得到了他人的帮助时,也会产生负面影响。人们希望自己的伴侣或朋友在没有人工智能或其他人帮助的情况下,自己努力写出信息。
这项研究最近在线发表在《社会与个人关系杂志》上。
刘说,随着像ChatGPT这样的人工智能聊天机器人越来越受欢迎,如何使用它们的问题将变得更加相关和复杂。这项研究有208名成年人在线参与。参与者被告知他们与一个叫泰勒的人是多年的好朋友。他们被告知有三种情况:他们正在经历职业倦怠,需要支持;他们正在与同事发生冲突,需要建议;或者他们的生日快到了。
然后,参与者被告知在电脑屏幕上的文本框中给泰勒写一条简短的信息,描述他们当前的处境。
所有参与者都被告知泰勒会给他们发送回复。在这些情景中,泰勒写了一个初稿。一些参与者被告知泰勒有一个人工智能系统来帮助修改信息以达到合适的语气,另一些参与者被告知有一个写作社区的成员来帮助修改,第三组参与者被告知泰勒对信息进行了所有的修改。
在每种情况下,参与研究的人对泰勒的回复都有相同的评价,包括"考虑周到"。不过,参与研究的人对他们所谓收到的泰勒的信息还是有不同的看法。那些收到人工智能帮助回复的人认为泰勒所做的事情比那些收到只有泰勒自己写的回复的人更不恰当、更不妥当。
人工智能回复还导致参与者对他们之间的关系表示不太满意,比如对泰勒在满足"我作为亲密朋友的需求"方面的评分较低。此外,在研究中,如果收到人工智能辅助回复的人对他们与泰勒的关系更不确定,对"泰勒喜欢我这个亲密朋友"这句话更不确定。
人们不喜欢人工智能辅助回复的一个可能原因是,人们认为使用技术来制作这样的个人信息是不恰当的,不如人类。但结果显示,人们对泰勒让另一个人类--一个在线写作社区的成员--来帮助撰写信息的回复同样做出了负面回应。
研究发现,人们认为朋友不应该使用任何第三方--人工智能或其他人类--来帮助维持他们之间的关系。原因在于参与者认为泰勒依靠人工智能或其他人来帮助撰写信息,在他们的关系上花费的精力较少。
参与者对泰勒使用人工智能或其他人的努力评价越低,他们对两人关系的满意度就越低,对友谊的不确定性就越大。
刘说:"努力在一段关系中非常重要。人们想知道你愿意为你们的友谊投入多少,如果他们觉得你利用人工智能来帮忙是在走捷径,那就不好了。"
当然,大多数人不会告诉朋友他们使用了人工智能来帮助制作信息,但她指出,随着ChatGPT和其他服务越来越受欢迎,人们在阅读朋友和其他人的信息时,可能会开始在脑海中进行图灵测试。"图灵测试"一词有时被用来指人们想知道自己是否能分辨出某个动作是由计算机还是人做出的。
人们可能会偷偷在脑海中进行这种图灵测试,试图找出信息中是否有人工智能的成分。这可能会伤害人际关系。
答案就是在人际关系中做好自己的工作,她说。"不要因为方便就使用技术。真诚和真实在人际关系中仍然非常重要。"
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】