人工智能决策的公平感知

被引:16
作者
蒋路远 [1 ]
曹李梅 [1 ]
秦昕 [1 ]
谭玲 [2 ]
陈晨 [1 ]
彭小斐 [1 ]
机构
[1] 中山大学管理学院
[2] 广东工业大学管理学院
基金
长江学者奖励计划;
关键词
人工智能; 算法; 公平; 决策;
D O I
暂无
中图分类号
B842 [心理过程与心理状态]; TP18 [人工智能理论];
学科分类号
040201 ; 081104 ; 0812 ; 0835 ; 1405 ;
摘要
不平等问题是全球社会和经济发展需要应对的首要挑战,也是实现全球可持续发展目标的核心障碍。人工智能(artificial intelligence, AI)为缓解不平等、促进社会公平提供了新的途径。然而,新近研究发现,即使客观上AI决策具有公平性和准确性,个体仍可能对AI决策的公平感知较低。因此,近年来越来越多的研究开始关注AI决策公平感知的影响因素。然而,目前研究较为分散,呈现出研究范式不统一、理论不清晰和机制未厘清等特征。这既不利于跨学科的研究对话,也不利于研究者和实践者对AI决策公平感知形成系统性理解。基于此,通过系统的梳理,现有研究可以划分为两类:(1) AI单一决策的公平感知研究,主要聚焦于AI特征和个体特征如何影响个体对AI决策的公平感知;(2) AI-人类二元决策的公平感知研究,主要聚焦于对比个体对AI决策与人类决策公平感知的差异。在上述梳理基础上,未来研究可以进一步探索AI决策公平感知的情绪影响机制等方向。
引用
收藏
页码:1078 / 1092
页数:15
相关论文
共 73 条