四论以用户为中心的设计:以人为中心的人工智能
人因,解决方案,学科,1引言,1“以人为中心的人工智能”概念的提出,2从人因学科的角度来考虑HAI,3第三次AI浪潮的特征和人因学科的机遇,4问题的提出,2一个扩展的HAI概念模型,3可解释和可理解的AI,1可解释
许 为(浙江大学心理科学研究中心,杭州 310058)
1 引 言
1.1 “以人为中心的人工智能”概念的提出
随着人工智能(AI)技术的应用和发展,目前社会对AI的关注已不仅仅局限于技术,而是开始更多地考虑其他非技术的因素。2018年埃森哲(Accenture)咨询对全球25个国家的6300多名企业IT高管的问卷调查表明,新技术对社会所产生的影响呈现出5个趋势,其中之一是公民化的AI,即随着AI技术在人们工作和生活中的应用推广,AI研发应该促使AI解决方案成为负责任的、富有成效的社会成员(Accenture,2018)。
类似于核能和生化技术的“双重用途”性质,AI带来的回报与潜在的风险共存。由于AI的开发和使用是一种去中心化的全球现象,进入门槛相对较低,使得控制越加困难(Li & Etchemendy,2018)。一些利用不完整或被扭曲的数据训练而成的基于机器学习(ML)的智能系统可能会导致该系统产生有偏见性的“思考”,轻易地放大偏见和不公平等,它们遵循的“世界观”有可能促使某些用户群体陷入不利的地位,影响社会的公平性,产生社会偏见。正因为如此,一些AI项目最终未能投入使用(Guszcza,2018)。例如,2016年微软在Twitter上发布了一个AI驱动的聊天机器人Tay,计划通过与人类用户的对话交流,提高其智能程度,并可为用户带来具个性化的使用体验。Tay是模仿美国青少年女孩而设计的,但是,当Tay和人类聊天不到24小时,她就被“教坏”了,变成了一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”,最终微软不得不将Tay下线。当越来越普遍的基于AI/ML的企业、政府服务等智能决策系统投入使用时,这些具有偏见的“世界观”所产生的决策,将直接影响人们日常的工作和生活。人们甚至担心AI将来可能排斥人类,人类终将失去控制,智能武器甚至可能会对人类造成灾难。
针对这些担忧和潜在的负面影响,近几年在学术界,斯坦福大学、加州大学伯克利分校、MIT等大学分别成立了“以人为中心的AI(Human-Centered AI,HAI)”的研究机构,开展一系列研究。这些HAI研究的策略强调AI的下一个前沿不能仅仅是技术,它也必须是人文的(humanistic)、合乎道德伦理的、惠及人类的;AI是增强人的能力而不是取代人。例如,斯坦福大学认为AI的研发应该遵循三个目标:在技术上达到反映以人类智慧为特征的深度;提高人的能力,而不是取代人;关注AI对人类的影响(Li & Etchemendy,2018) ......
您现在查看是摘要页,全文长 27160 字符。