当前位置: 首页 > 期刊 > 《应用心理学》 > 2019年第3期
编号:862177
个人-非个人道德困境下人对智能机器道德判断研究*
http://www.100md.com 2024年5月10日 应用心理学 2019年第3期
道义,1前言,2实验1,1被试,2研究材料及程序,3结果,3实验2,4讨论,5小结
     (1.浙江工业大学管理学院,杭州 310023;2.浙江工业大学之江学院,绍兴 312030;3.浙江警察学院,杭州 310053;4.浙江工业大学政治与公共管理学院,杭州 310023)

    1 前 言

    想象二十年后的一天,你正在路上走着,突然发现一辆高速行驶的汽车前出现5个人,刹车已经来不及,汽车继续直行将撞死这5人。这时,汽车紧急转弯变道到支路,但撞死了在支路上的1个人。你跑过去一看,发现这是一辆自动驾驶汽车。你会如何评价自动驾驶汽车的这一行为?你是否认为这一行为在道德上是可行的?随着科技的发展,人工智能正逐步进入人们的视野,越来越贴近人们的实际生活。自动驾驶汽车、看护机器人等,无疑会给我们的生活带来极大的便利,但也必将带来巨大的变革。当智能机器进入到人类社会与人类交互时,必将面临诸多的道德情境,做出自主选择的相关道德行为。人们如何看待智能机器,如何对其行为进行道德评价?

    智能机器已被人类看作是道德行为者,成为道德主体(Wallach & Allen,2008)。目前,研究者在探究公众对智能机器行为道德判断时,通常借鉴经典的电车困境(trolley dilemma)难题(尹军,关旭,花蕊,张锋,2018;Foot,1967)。电车困境要求人们在放任一辆失控的电车杀死5人和将电车转向另一轨道导致1人死亡,但可以拯救5人的两难困境中做出选择。这一困境下的行为选择与两种不同的道德判断取向相联系:效果论(consequentialism)和道义论(deontology)。效果论理论类似于功利主义,基于结果的收益最大化来评价道德相关行为(Benthan,1879/1983;Mill,1863);相反,道义论理论认为一个行为的对错与否不是由行为的结果来决定的,而是取决于行为本身及责任、权利和义务等(Kant,1797/2002;Scanlon,1998)。

    基于电车困境,一些研究者探讨了人们对智能机器在道德两难困境中的期望行为及道德判断。这些结果表明,公众对智能机器和人类,很可能采用不同的道德判断准则:人们更希望智能机器做出功利主义取向行为,对其功利取向行为的道德评价也高于人类做出同样的行为,即存在人-智能机器异质性(human-robot asymmetry)。比如,Malle等人(Malle,Scheutz,Arnold,Voiklis,& Cusimano,2015)首次系统地考察了这一问题,发现相比于人类,人们更期望机器人牺牲1人救下4人;当机器人做出道义论的选择时(不变轨道),人们对其在道德上的错误度、责备度的评分也高于人类做出同样的选择 ......

您现在查看是摘要页,全文长 16506 字符