人们对智能机器的道德决策期望研究概述
吴明证 严梦瑶 林铭 刘钇瑶 孙晓玲摘 要|智能机器指能够在各类环境中自主地或交互地执行任务的人工智能系统,近年来,智能机器的道德决策受到越来越多研究者的关注。本文从人们对智能机器的道德决策期望、影响因素和心理机制三方面出发,系统介
绍了智能机器的研究现状,并探讨了已有研究的不足及未来研究方向。
关键词|智能机器;道德决策;心智感知
Copyright ? 2022 by author (s) and SciScan Publishing Limited
This article is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. https://creativecommons.org/licenses/by-nc/4.0/
随着智能化时代的即将到来, 一些智能机器(Intelligent Machine) 或自主机器(Autonomous Machine)已经能够高度自主地在自动驾驶、军事领域、医疗服务等环境中执行任务(Logg et al., 2019)。我们希望智能机器具有更强的功能和自主性以应对复杂的社会环境,这使得智能机器在工作时不可避免地会遭遇各种道德情境,需要快速地做出正确的道德决策。出于慎重起见,人类必须保证智能机器以合乎道德的方式来行动。为此,政府管理部门、学术界一直致力于制定适合人工智能的伦理规则, 给予智能机器合适的伦理规范限制。在这一背景下,研究者展开了对人们如何期望智能机器进行道德决策的探讨,以便为人工智能的道德立法提供学理依据。
目前,机器道德研究受到 AI 研究者的广泛关注。为此,本文拟对智能机器道德决策期望的研究进展进行概述性介绍,在此基础上分析已有研究的不足及未来发展方向,旨在为 AI 研究者提供参考和借鉴。
1? 智能机器的道德决策期望研究的主题
1.1? 智能机器是否具有道德主体地位
与一般的风险决策不同,道德决策往往涉及是非对错。人们都认可智能机器的高速运算能力,接受智能机器应用于一般风险决策领域,但对于智能机器能否进行道德决策则莫衷一是。探讨人们对智能机器的道德决策期望,前提在于人们是否认可智能机器具有道德主体(Moral Agency)地位。一般认为,道德主体是指能够评估和调控自身行为,并且考虑到可能的潜在危害和可能忽视的职责的个体(Wallach et al.,2008)。一些研究者否认智能机器具有道德主体性 ......
您现在查看是摘要页,全文长 22251 字符。