人工智能决策的公平感知*
个体,1引言,2AI单一决策的公平感知研究,1AI特征,2个体特征,3小结,3AI?人类二元决策的公平感知研究,1机械属性vs.社会属性,2简化属性vs.复杂属性,3客观属性vs.主观属性,4小结,4理论机制,1AI单一决策的公平感知
蒋路远 曹李梅 秦 昕 谭 玲 陈 晨 彭小斐人工智能决策的公平感知*
蒋路远1曹李梅1秦 昕1谭 玲2陈 晨1彭小斐1
(1中山大学管理学院, 广州 510275) (2广东工业大学管理学院, 广州 510520)
不平等问题是全球社会和经济发展需要应对的首要挑战, 也是实现全球可持续发展目标的核心障碍。人工智能(artificial intelligence, AI)为缓解不平等、促进社会公平提供了新的途径。然而, 新近研究发现, 即使客观上AI决策具有公平性和准确性, 个体仍可能对AI决策的公平感知较低。因此, 近年来越来越多的研究开始关注AI决策公平感知的影响因素。然而, 目前研究较为分散, 呈现出研究范式不统一、理论不清晰和机制未厘清等特征。这既不利于跨学科的研究对话, 也不利于研究者和实践者对AI决策公平感知形成系统性理解。基于此, 通过系统的梳理, 现有研究可以划分为两类: (1) AI单一决策的公平感知研究, 主要聚焦于AI特征和个体特征如何影响个体对AI决策的公平感知; (2) AI?人类二元决策的公平感知研究, 主要聚焦于对比个体对AI决策与人类决策公平感知的差异。在上述梳理基础上, 未来研究可以进一步探索AI决策公平感知的情绪影响机制等方向。
人工智能, 算法, 公平, 决策
1 引言
不平等问题是全球社会和经济发展需要应对的首要挑战。联合国经济与社会事务部所发布的《2020年世界社会报告(World Social Report, 2020)》指出, 全球不平等现象正在日益加剧, 全球超过三分之二人口所生活的国家都面临着不平等问题进一步扩大的现状。这不仅会影响经济发展和社会稳定, 还会阻碍全球可持续发展目标的实现(郑功成, 2009; Vinuesa et al., 2020)。人工智能(artificial intelligence, AI)在缓解不平等问题、促进社会公平等方面被寄予厚望(曹培杰, 2020; Dalenberg, 2018; Loehr, 2015), 因为AI能够依靠大数据和复杂计算作出客观判断(徐鹏, 徐向艺, 2020; Lindebaum et al., 2020), 有助于减少人类决策过程的主观偏差和不公平(房鑫, 刘欣, 2019; Miller & Keiser, 2021)。例如, 在应对新冠病毒方面, AI有效缓解了人类偏见可能导致的医疗资源分配不公等问题(Bigman et al., in press)。
尽管AI决策在促进公平方面成效突出并蕴藏着巨大潜力, 但部分新近研究发现, 即使AI和人类的决策结果在客观上没有差异, 甚至优于人类, 个体仍可能表现出算法厌恶(algorithm aversion;Burton et al., 2020), 并宁愿以牺牲效率为代价来反对AI决策(谢小云等, 2021; Bigman & Gray, 2018; Longoni et al., 2019) ......
您现在查看是摘要页,全文长 50041 字符。