像ChatGPT这样先进的生成式人工智能聊天机器人是否具有某种意识或自我意识,能够像人类一样体验情感和记忆?当然不是。然而,大多数人认为这些AI机器人确实具有一定程度的意识,而这种信念可能会影响用户与它们的交互方式。
过去几年,人工智能语言生成工具取得了令人难以置信的进步。根据滑铁卢大学(UniversityofWaterloo)的一项新研究,该软件类似人类的对话风格使超过三分之二(67%)的受访者认为LLM具有一定程度的意识。
这项调查询问了300名美国人,他们是否认为ChatGPT具有意识能力以及制定计划、推理、感受情绪等能力。他们还被问及使用OpenAI产品的频率。
参与者必须在1到100的范围内对ChatGPT的反应进行评分,100表示绝对相信ChatGPT正在经历意识,1表示绝对相信ChatGPT没有经历意识。
结果显示,使用ChatGPT越多的人就越有可能相信它具有某种形式的意识。
"这些结果证明了语言的力量,"滑铁卢艺术学院心理学教授克拉拉-科隆巴托博士说,"因为仅凭一段对话就能让我们认为,一个在外观和工作方式上与我们截然不同的人也会有思想。"
这项发表在《意识神经科学》(NeuroscienceofConsciousness)杂志上的研究指出,这种信念可能会影响到与人工智能工具互动的人。一方面,它可以加强社会纽带,增加信任。但它也可能导致人们对聊天机器人产生情感依赖,减少人际互动,并导致人们过度依赖人工智能来做出关键决策--自从ChatGPT被推向公众以来,人们就一直对此表示担忧。
科隆巴托解释说:"虽然大多数专家否认目前的人工智能可能有意识,但我们的研究表明,对大多数普通大众来说,人工智能有意识已经成为现实。"
该研究认为,尽管很多人并不像科学家或研究人员那样理解意识,但在设计和监管人工智能以确保安全使用时,应该考虑到他们认为这些AI在某种程度上是有知觉的这一事实。
关于人工智能表现出自我意识的讨论已存在多年。最著名的例子之一是前Google软件工程师布莱克-勒莫因(BlakeLemoine),他在公开声称Google的LaMDA(对话应用语言模型)聊天机器人开发系统已经具有感知能力后,被公司解雇。
询问ChatGPT是否有意识或有知觉,得到的答案如下:"我没有意识或知觉。我没有思想、感情或意识。我的目的是根据数据模式提供帮助和信息,但我的回答背后没有意识。也许人们认为聊天机器人在撒谎。"
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】