龚群:论弱人工智能体的道德性考察
“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。
一、自主性与行为责任归属
弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。
行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。
弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。
虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?
弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。
没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。
责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?
二、意向性、意识与行为
具有道德意义的人类行为体现的是人类行为者本身的主动动因、内在意愿,因而体现了人类行为的意向性(intention)。但弱人工智能体仅仅具有一定自主性,其行为是否能够被视为类似于人的行为?人的行为是具有自我意识的主体的意向性行为,对弱人工智能体行为的道德意义的考察必须将意向性以及自我意识纳入其中。
首先,就人类的活动而言,有意义的行为与单纯无意义的动作或行动有根本区别。判断一个动作是不是行为,关键在于这个动作是有意识的行为、意识清醒下的行为、潜意识的行为,或只是无意识的肢体动作等。“行为就某种意义而言,是通过身体的运动体现出来的,但是只有当行为者遵循一种技术的行为规则,或者一种社会行为规则而同时进行这种运动时,这种行为才能体现出来。这种同时进行意味着,行为者是有意完成一种行为计划的,而不是有意进行借以体现他的行为的身体运动。一种身体运动是一种行动的因素,但不是行为。”(Habermas,S.146)哈贝马斯认为,人类的行为不能与行为背景所遵循的规则或社会规则分离,如果把身体运动与行为所体现的规则意义分离开来,就会对人类行为产生误解。当然,也存在着单纯的身体活动或肢体运动,但如果要把它说成是行为,就要看到它具有的意义。如我们向他人挥手是要向他人表达某种我们想表达的意思,这样的肢体活动无疑是一种行为。不过,哈贝马斯所说的行为与行为规则相关联中的“规则”,是行为者自己所认可或已经成为行为背景条件的规则。换言之,这样的行为规则并非需要行为者去努力回想而是已经融入行为方式之中的规则。这样的行为应当是行为者所认为的“正确的行为”,即与行为规则相符合的行为。此外,错误的行为其本身不符合一定的规则,但由于这些规则在行为者的理性认知范围内,因此当人们指出其行为不合规则时,行为者不能为自己进行合理辩护。
其次,人类的身体运动或肢体活动之所以会体现某种社会规则或具有规则意义,根本原因在于人类的意识。行为是人们在规则意识指导下的行为,或由于人们对某种规则的意识而作出的行为。不过,人类的行为在相当多的情形下,正如弗洛依德所说,是潜意识或无意识的行为。这类潜意识或无意识行为实际上是人们长期习惯所养成的,如行走礼让他人,看似无意识,却是在长期反复的行为实践中形成的自发性行为。这样的行为看似无意识,但仍然以符合规则的潜意识为前提。在我们依照习惯行事时,如果有人突然蛮横地在前面冲撞他人,我们会因不理解而感到吃惊。
第三,从现象学看,任何意识活动都有意向性,意识活动的特点就是意识主体既有对自身的意识,同时也意识到意识对象的存在。这个对象既可能是物,也可能是人。意识既指向外在的存在物,也可能指向内在对象。(参见布伦塔诺,第105页)以哈贝马斯的观点来说即在合规则的意识中,这也是意向性的特点。意识或意向对象是意识主体在意向过程中建构出来的,也赋予了对象意义。意向对象指向对象的过程,也是一个选择的过程,完成确定行为并赋予其意义。因此,在意向性精神现象中,意识主体起着关键性的作用。塞尔则从心理意义上来讨论意向:“感觉经验是意向,它们的意向内容在形式上是命题性的,即精神朝向适应世界,它们的性质以意向内容来说明。”(cf.Searle,p.45)在塞尔看来,意向本身不可离开感觉世界的本体,但同时又不可离开心理本体来把握。意向是内在心理性的,因而实现是意向本身的精神性事件。实际上,潜意识在某种意义上也就是指一种心理状态。在精神生活意义上,心理状态比明确的意识更为深层次。意向性既包含意识性层面,也包含心理精神层面。
弱人工智能体的活动可以称之为具有意向性的行为吗?当前的相关研究没有表明人工智能具有意向性活动。使人工智能像人脑一样具有意识或自我意识,是人工智能研究的重大方向。物理还原主义的路线并非能够成功。脑科学研究把意识现象还原为生化层次和神经构造层次,这一领域的研究表明,一切意识(包括意向性)活动都有严格的电生理化学反应关系。20世纪80年代末,“神经生理学发现,在猫、猴等动物的视觉皮层区,有40Hz同步振荡产生,据认为这种同步振荡是各种视觉特征……有的神经生理学家也把40Hz同步振荡作为意识的神经相关物”。(见汪云久等,第1142页)这引发人们的设想,是否只要有像人脑一样的生物结构,就可以使人工智能产生像人脑一样的意识行为或意向性行为?
就神经结构与认知结构的关系问题,目前的研究已经取得了一定的成果,如对于动物和人的视觉意识的神经机制研究,已经从传统的对视觉加工的分层级研究发展到视觉反馈过程的研究。动物电生理对猴子的研究发现,“在猴子的视觉皮层中,除了前摄神经连接,还存在很多反馈连接”。(见李奇、耿海燕,第1213页)还有人认为,“猴子的视觉大脑和视觉能力与人类非常相似”。(见刘晓力,第119页)针对动物视觉以及人的视觉神经生理结构的研究通过大脑皮层的神经传向方式的比较,深入探讨神经网络传导的物理表达方式。然而,这样的物理还原或以人工算法还原只是以物理方式或数学方式重现神经网络的认知,却把“意义”的参与排除在外,仅仅成为神经网络或人工智能深度学习的程序设计。换言之,把人的行为活动还原为大脑的物理或神经生理或电生理过程,能够解释行为意向吗?能够解释一个人在不同情境条件下完全相同行为的不同意义吗?
意识本来就与物理材料无关,关键在于组成的模式。(见铁马克,第386页)组成模式就是物质在粒子层次的排列组合。“我认为意识就跟固态、液态、气态一样,都是突现的现象,会产生原有粒子不具备的新特性。譬如说当我们进入深度睡眠,仅仅只是粒子重新排列,就可以让我们失去意识,或如果我不小心冻死,我身上的粒子只是改以不幸的方式重新排列,……”(铁马克,第382页)目前的生物物理研究还没有达到基本粒子或电子层面的生化反应层次。但是,基本粒子的排列方式就能够解释人类的意识现象吗?这仍然是一个存疑的问题。
虽然人工智能可以模拟人脑的知觉活动,但仍然不可能产生类似人的活动意义、自我意向性意识等维度的精神意义。目前达到神经网络深度学习的人工智能在原理上实际很简单:“‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可。”(斯加鲁菲,第29页)谷歌与斯坦福大学组成的联合研究组利用16000台电脑组成了包括10亿个连接在内的神经网络。斯加鲁菲把它称之为“暴力计算”。(见同上)暴力计算是目前统治人工智能领域的范式之一,ChatGPT就是一个实例。人脑中的神经元大约1000亿左右,每个神经元都通过1000个左右的突触与其他神经元连结、交换信息。神经网络在经过内在信息的多重转换后,最终能够将获得的事物表象转换成人类对外在事物对象的认知把握。“现在除了生物性的神经网路,还有属于人工智慧的神经网路,近来也成为人工智慧领域当中名为‘机器学习’(研究如何透过经验累积改良演算法)的主导力量。”(铁马克,第92页)在神经网络的深度学习功能上,计算机的能力很强大,但这是否意味着人工智能会像人类一样思考?
实际上,当前弱人工智能体的一个最根本问题就是缺乏像人一样的意识:“我认为超人智能至少具备一个特点:意识。人类的思考、感觉、痛苦、快乐都属于意识。人类有意识,比人类高级的智能理应也有意识。”(斯加鲁菲,第118页)当前弱人工智能体还不具备像人一样的意识能力。AlphaGo的设计程序中有千万个棋谱和算法,高速运算能力使得它能够飞速找到最佳棋法。但这并不是AlphaGo的意识,而是按照程序逻辑和深度学习算法作出的自动判断。弱人工智能体通过大数据的运算,具有超强的逻辑推理和判断能力(甚至可能有直觉判断,如在AlphaGo对弈李世石时让世人震惊的第37步),但并不能因此就说它具有意识。笔者赞同翟振明的观点:“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”(翟振明,第30页)认为当前的弱人工智能体的高超运算能力等于“意识”或会接近人的意识是犯了物理主义、计算主义混淆“内在描述”与“外在描述”的功能而陷于“整一性投射谬误”的结果。(见同上,第29页)“意向性问题曾经是19~20世纪转折时期最热门的话题之一。无独有偶,在新的世纪转折时期,它再次受到人们的亲睐。所不同的是,它不再只是一个纯学术问题,而同时带有工程学的性质。当今的心灵哲学与其他关心智能问题的具体科学如人工智能、计算机科学、认知科学等,尽管各自走着迥然不同的运思路线,但最终都发现意向性是智能现象的独有特征和必备条件。然而作为现代科技之结晶的计算机所表现出的所谓智能,尽管在许多方面已远胜于人类智能,但它只能按形式规则进行形式转换,而不能像人类智能那样主动、有意识地关联于外部事态,即没有涉及到意义,或没有语义性或意向性。”(赵泽林、高新民,第51页)
弱人工智能体不仅没有能思考的意识能力,也没有返身思考的能力,从而也就没有道德责任意识,更不用说自我意识。返身性思考首先有一个前提,即自我概念。返身是对自我形象多方面进行把握的能力,如通过对象来把握自我。猴子可以通过自己的水中影像获得对自己的感性直观,但人的返身性不仅是感性的,而且是理性的返回自身,如获得道德的自我形像。当前的AlphaGo可以通过学习进行对象性判断,但它能够通过无数次的学习建立像人类一样的心灵吗?通过无数次的深度学习建构起一套自己的逻辑理路来迎战任何围棋高手并不是人们所说的自我建构,更不用说什么自我意识了。即使是比AlphaGo更高一级的、算法更为先进的AlphaZero,也同样如此。
自我意识是自我与他者相分离的意识,是在知觉感知对象的前提下才可能有的自身意识。笛卡尔的“我思故我在”作为自我意识的呈现,首先在于能够将自我与对象世界区别开来,并在这种区别中认识自我。弱人工智能体并不是以任何已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。人工智能专家2019年设计制造了一类机器人,它可以进行自我修复,有人认为这似乎可以被视为具有自我意识的机器人。对此,江怡评价道:“严格地说,这还不能算是一个完整的机器人,而且,仅从机器手臂可以根据外部环境自我修复和调整的功能看,这也不符合我们通常理解的自我意识活动。”(江怡,第5页)弱人工智能活动并不等同于人类行为。如果弱人工智能体没有人类所具有的意识,也不具有人类道德意义上的行为,我们也就无从把弱人工智能体看成是类似人一样的道德行为者。
三、何为道德行为者?
按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。
亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。
亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?
人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。
如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。
休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。
人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。
当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。
(作者简介:龚群,山东师范大学马克思主义学院特聘教授,中国人民大学杰出学者特聘教授、博士生导师)
网络编辑:同心
来源:《哲学研究》2023年第3期
发布时间:2023-04-25 10:50:00
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】