归根结底,大模型的方向还是走错了?“空间智能是人工智能拼图中的关键一环。”知名“AI教母”李飞飞曾这样表示。近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,“大自然创造了一个以空间智能为动力的观察和行动的良性循环。”
她所在的斯坦福大学实验室正在尝试教计算机“如何在三维世界中行动”,例如,使用大型语言模型让一个机械臂根据口头指令执行开门、做三明治等任务。
我们不难看出,李飞飞口中的空间智能也有大模型的参与。
如今,随着技术的发展,LLM在多个方面表现出超人类智能。然而关于LLM的争议也在不断增加,其中,LLM到底有没有感觉能力,大家意见不一而论。
近日,李飞飞连同斯坦福大学以人为本人工智能研究所HAI联合主任JohnEtchemendy教授联合撰写了一篇文章,文章对AI到底有没有感觉能力(sentient)进行了深入探讨。
本文中,我们把sentient一词翻译成感觉,因为AI领域感知一词通常对应perception,也不适合翻译成意识。读者们有合适的翻译可以留言讨论。
文中驳斥了LLM有感觉的说法,李飞飞列举了大量示例来证明这一观点。
在提到超级计算机深蓝时,李飞飞表示,虽然这款下棋程序可以击败世界冠军,但如果房间突发意外情况如着火,深蓝不会有停止游戏的意识,而人类会有。
同样的,当人类产生饥饿说出“我饿了”时,人类和LLM背后所隐藏的行为链条是完全不同的。LLM只是产生“我饿了”这个字符串的事实,它没有身体,甚至不可能有饥饿那种感觉。
更进一步的,李飞飞认为人类饥饿时,伴随一系列生理反应,如低血糖、肚子叫等,而LLM无法拥有这些状态的主观经验,即无法有感觉能力,只是在概率性地完成任务而已。
人类有物理躯体,可以感觉一切,但LLM没有,当LLM说出类似的“自己脚趾痛”时,大家都不会相信,因为它根本就没有脚趾,它只是一个编码在硅片上的数学模型。
李飞飞驳斥LLM具有感觉能力
通用人工智能(AGI)是用来描述一种至少与人类在各种方面表现出相同智能的人工智能体的术语,涵盖人类所展示(或能够展示)的所有智能方式。这是我们曾经称之为人工智能的概念,直到我们开始创建在有限领域表现出智能的程序和设备——如下棋、语言翻译、清洁客厅等。
增加“G”这个字母的必要性来自于由人工智能驱动的系统的普及,但这些系统只专注于单一或极少数任务。
IBM的深蓝是一款令人印象深刻的早期下棋程序,它可以击败世界冠军GarryKasparov,但如果房间着火了,它却不会有停止游戏的意识。
图为GarryKasparov和深蓝团队的JoeHoane在1997年纽约市的复赛场景,最终在六局复赛中击败了GarryKasparov,赢得了其中的两局并有三局打成平手。
现在,通用智能有点像一个神话,至少如果人们认为自己拥有它的话。
人类可以在动物界找到许多智能行为的例子,它们在类似任务上的表现远比人类本身表现更好。智能并非完全通用,但足以在大多数环境中完成人们想要完成的事情。
如果当人类感到饥饿时,可以找到附近的超市;当房间着火时,则会自主地寻找出口。
智能的基本特征之一是“感觉”,即拥有主观经验的能力——比如感受饥饿、品尝苹果或看到红色是什么样的。
感觉是通往智能的关键步骤之一。
于2022年11月发布的ChatGPT,标志着大型语言模型(LLMs)时代的开始。
这立即引发了一场激烈的争论,所有人都在讨论这些算法是否实际上具有感觉能力。以LLM为基础的人工智能具有感觉能力的可能性引发了媒体狂热,也深刻影响了全球一些政策制定的转向,以规范人工智能。
最突出的观点是,“有感觉的人工智能”的出现可能对人类非常危险,可能带来“灭绝级”的影响或至少是“存在危机”的。毕竟,一个有感觉的人工智能可能会发展出自己的希望和欲望,而不能保证它们不会与人们相冲突。
李飞飞和Etchemendy的主要观点是反驳“有感觉的人工智能”阵营最常提出的辩护,而该辩护基于LLMs可能已经有了“主观经验”的能力。
JohnEtchemendy曾担任斯坦福大学语言与信息研究中心的主任、哲学系主任,以及人文与科学学院的高级副院长,并且是斯坦福人工智能研究所的联合主任。
为什么有些人认为AI已经获得了感觉能力
在过去的几个月里,他们俩与AI领域的许多同行进行了激烈的辩论和交谈,包括与一些最杰出的和具有开创性的AI科学家进行了一对一的深入交流。
关于AI是否已经获得了感觉能力的话题一直是一个突出的问题。其中少数人坚信AI已经具有了感觉能力。以下是其中一位最为积极支持者的论点要点,相当程度上代表了“有感觉的AI”阵营的观点:
AI是有感觉的,因为它能报告主观经验。主观经验是意识的标志,其特征在于能够认知自我所知或所感。例如,当你说『我在吃过一顿美味的饭后感到高兴』时,我作为一个人实际上没有直接证据感觉你的主观体验。但既然你这样表达了,我会默认相信你确实经历了这种主观体验,因此你是有意识的。这种逻辑也被用来推论AI的意识状态。
现在,让我们将同样的『规则』应用到LLMs上。就像任何人一样,我无法访问LLMs的内部状态。但我可以查询它的主观经验。我可以问『你感到饥饿吗?』它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的『主观经验』,几乎涉及任何事情,从看到红色到吃完饭后感到幸福。因此,我没有理由不相信它是有意识的或不知道自己的主观经验,就像我没有理由不相信你是有意识的一样。在这两种情况下,我的证据完全相同。
为什么“AI有感觉能力”是错误的
虽然乍看之下这个论点似乎有道理,但实际上是错误的。因为李飞飞和Etchemendy教授的证据在这两种情况下并不完全相同。甚至差距很大。
当你说“我饿了”时,我得出你正在经历饥饿的结论是基于一系列大量的情况。首先,是你的报告——你说的话,可能还包括其他行为证据,比如你的肚子咕咕叫。其次,是没有相反证据的存在,比如如果你刚吃完五道菜的大餐就不太可能会说饿。最后,也是最重要的,是你拥有一个像我一样的物理身体,这个身体需要定期进食和饮水,遇冷会感到寒冷,遇热会感到炎热,等等。
现在将这与他们二人对LLM的证据进行比较。
唯一共同的是报告——即LLM可以产生“我饿了”这个字符串的事实。但相似之处就到此为止了。事实上,LLM没有身体,甚至不会有感到饥饿那种感觉。
如果LLM说:“我的左大脚趾很疼”,人们会得出它左大脚趾确实很疼的结论吗?答案是否定的,因为它根本就没有左大脚趾。
同样地,当它说它饿了时,人们实际上可以确定它并不饿,因为它没有感到饥饿所必须的生理结构。
当人类感到饥饿时,会感觉到一系列生理状态——低血糖、空腹发出的咕咕声等——而LLM根本没有这些,就像它没有嘴巴放食物进去,也没有胃去消化食物一样。
认为人们应该相信它说自己饿了的观点,就像是在说应该相信它说自己正在从月球的暗面跟使用者说话一样荒谬。
人们知道这不是真的,LLM的主张也无法改变这个事实。
所有感觉——饥饿、感到疼痛、看到红色、爱上某人——都是由LLM根本没有的生理状态引起的。
因此,LLM无法拥有这些状态的主观经验。
换句话说,它无法有感觉能力。
LLM只是一个编码在硅片上的数学模型。
它不像人类那样是一个具有身体的存在。它没有需要进食、饮水、繁殖、经历情感、生病和最终死亡的“生命”。
当人类和LLM同样地说出“我饿了”时,背后所隐藏的行为链条是完全不同的。
理解人类生成词序列的方式与LLM生成相同词序列的方式之间的深刻差异至关重要。
当人们说“我饿了”时,是在报告感觉生理状态。
而当一个LLM生成序列“Iamhungry”时,它只是生成当前提示中最可能的完成序列。它做的事情与在不同提示下生成“Iamnothungry”或在另一个提示下生成“Themoonismadeofgreencheese”时完全相同。
这些都不是它本就不存在的生理状态的报告,它们只是在概率性地完成而已。
很遗憾的是,具有感觉能力的人工智能时代还尚未到来。
两位作者认为研究者还没有实现有感觉的人工智能,而更大型的语言模型也不会使人们实现这一目标。
如果人类想在人工智能系统中重新创建这种现象,就需要更好地理解有感觉的生物系统中感觉是如何产生的。
人们不会在下一个ChatGPT的迭代中偶然发现感觉。
在李飞飞转发的X(原Twitter)下面,大家讨论的也是非常激烈,有人表示:“当今的LLM有两种类型:一种是完全基于文本进行训练,另一种则是基于图像、文本甚至音频进行训练。第一种类型确实不具备所谓的感觉能力,但第二种类型具有物理直觉,因此可以说它具有感觉能力。”
而另一位网友则追随Lecun的脚步,表示:“一只喵星人的智能程度都远高于最大型的LLM。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】