基于人工智能的道德判断规则

2021-04-22 10:49:02 亚欧安博会 6

人工智能的蓬勃发展,不仅是国家战略,也是生活实践的需要。在传染病流行时,如果医疗机器人能够辅助治疗,比如远程问诊、智能送药等,那么它必能在传染病防治中保护医护人员并节约许多资源。但如果机器人并非辅助治疗而是担任主治,根据其深度学习的诊断标准误判了病况,并致使患者死亡,我们应该向谁问责?医院、医生、患者、家属、制造商、销售商、开发者还是机器人本身?

以备受瞩目的无人驾驶汽车为例,如果其处于一种必须做出选择的经典道德情境中,即面临一种需要“杀一救五(多)”的情境,比如前面有五位或者多位行人穿行马路,需要做出决策:要么自动驾驶汽车转向让车和毁掉司机以保护行人安全,要么保全自动驾驶汽车以保全司机。经典研究发现,如果确实为了保护行人车毁人亡的话,人们只会将很少的道德责任归咎于这辆无人驾驶汽车。大多数人认为就应该这样做,但讽刺的是,大多数人也表示如果这样就不会去购买这辆汽车。这便存在一个悖论,即希望人工智能做出功利主义决策,但在实际生活中又不希望它发生在自己身上。

其实,人类并不希望人工智能辅助决策,当然也包括道德决策。各种研究表明,人类会对人工智能做出的决策产生厌恶。人们不喜欢人工智能在自动驾驶、法律、医疗和军事方面做出与生死相关的道德决策,哪怕这些决策最终被认为是正确的,结果是好的、积极的。事实上,人类对人工智能在某种意义上存在道德规范上的歧视。究其原因,这可能是人类在对待人工智能时使用了人类的道德规则。那么,如何消除这种歧视,是否可以形成一套稳固的、不同于人类的人工智能道德规范呢?

我们的研究早已发现,中国人偏好做出道德相对主义判断。这是因为中国人具有一种朴素的辩证思想,即认为正反两面都对的道德原则。这种思维方式容忍矛盾互斥的观点同时存在,能够消除人们处于道德两难困境中的焦虑和不安。辩证思维与道德相对主义二者都有一个关键的特性,即对矛盾的包容。道德判断过程中认为正反两面皆对,且会随着关系、环境的变化而变化的辩证思维方式,正是道德相对主义的表现。

对于人工智能而言,能否形成一种不同于人类的道德规则?虽然人工智能的道德规则可能与人类现有的道德规则相抵触,但人类依然可用道德相对主义的眼光去看待它,以解决人工智能的伦理决策问题。这是一种解决问题之道,但却相当困难。心理学研究表明,在人类认知中,人们倾向于将人工智能当作孩子(甚至是不足4岁的孩子)来看待。而儿童正处于道德刻板之时,这也可以部分解释为什么人类不希望人工智能来做出道德判断,因为人类也不太希望由孩子来辅助他做出道德决策。

一方面,儿童没有能力做出道德相对主义判断。目前的实证研究证据表明,道德相对主义倾向会随着年龄的增大而变强。相对于儿童,成人更加倾向于道德相对主义。学生从七年级到大学阶段,道德相对主义程度会逐渐提高。这可能是由于学生在这个阶段要离开家人,他们要学习新的知识,独立地生活,思维也变得更加灵活。有研究考察了5岁、7岁和9岁的儿童在道德、品味、事实以及模棱两可的事实四个领域中,对不同命题所表现出来的相对主义程度。在每个领域的任务中,均向儿童呈现A和B两个人对某一命题的判断结果,且这两种观点是相互矛盾的。然后,研究者让儿童进行判断(如:你觉得A和B的说法只有一个人是正确的,还是A和B的说法都是正确的?)。结果显示,在道德与事实领域,儿童更倾向于做出客观主义判断;在模棱两可的事实领域,他们的相对主义程度较高;而在品味领域,选择相对主义答案的人最多,且儿童年龄越大越倾向于做出相对主义判断。还有研究让4岁至6岁的孩子对道德问题、美学问题和常识进行对错判断,这个年龄段的儿童对于道德问题的判断与后两种问题不同,他们对道德问题会更加倾向于做出客观主义判断。还有研究者让大学生判断来自不同文化的两个人针对“打人”这一事件的不同看法,其中一个人认为打人是对的,而另一个人认为打人是错的。研究者提供给被试三个选项,分别表述了认同前者是对的、认同后者是对的以及两者可能都对。结果发现,大学生更倾向于认为两者可能都对,也就是更多地做出道德相对主义判断。这些研究都表明,儿童更加倾向于道德客观主义,而成人则更加倾向于道德相对主义,说明道德相对主义倾向会随着年龄的增长而增强。

另一方面,人类并不希望儿童做出道德相对主义判断。皮亚杰关注道德发展,认为9岁至11岁的儿童处于道德发展的他律阶段,在这一阶段,儿童表现出某种形式的道德绝对主义,而到了自律阶段后,儿童才有做出道德相对主义判断的可能。柯尔伯格完善了他律和自律的区分标准,认为只用这两级水平来解释儿童的道德发展是不全面的,于是他便提出了新的道德发展阶段论,即前习俗水平(儿童会先依据一定的规范来做道德判断,进而发展到依据事情是否有利来进行道德判断)、习俗水平(包含人际协调以及维护权威或秩序两个阶段,开始重视社会规范的作用)、后习俗水平(从社会规范发展到更多参考经由内化而形成的道德信念来做出道德判断)。柯尔伯格的道德发展理论已经隐含道德相对主义的概念。在习俗阶段,人们接受的是一般性的、具体的道德原则,受到外界的道德规范的约束。而发展到最后一个阶段,当道德规则具有自主性时,这样的道德规则合适与否完全是由人们自己进行判断的。如果对这一阶段进行界定,理应对应道德相对主义,只是柯尔伯格并未明确提出这一概念与研究问题。柯尔伯格的理论在某种程度上是实然的,但其实也是应然的,即某种程度上它提示人们,到了某个阶段时就应该有某种道德发展的可能。按照这样的逻辑,人类实际上并不希望儿童会做出道德判断。

将针对儿童的研究结果放在人工智能的讨论中,可以推断人工智能(现阶段)没有能力做出道德相对主义判断,且人类也不希望人工智能做出道德相对主义判断。换句话说,人类在心理上不希望人工智能根据不同于人类世界的道德规则来进行道德决策,人类自身同时也不希望人工智能秉持一种完全不同于人类的独特道德规则做出行为。

(本文系教育部人文社科基金青年项目“文化混搭与道德相对主义”(17XJC190001)、教育部人文社科基金青年项目“理性行动的认知规范研究”(19YJC720006)阶段性成果)

(作者单位:湖北经济学院马克思主义学院;西安交通大学哲学系)

来源:中国社会科学网-中国社会科学报 作者:韩婷婷 丁晓军


网站首页
线上展会
在线客服