可信机器学习的公平性综述

被引:29
作者
刘文炎 [1 ]
沈楚云 [2 ]
王祥丰 [2 ,3 ]
金博 [2 ,3 ]
卢兴见 [2 ]
王晓玲 [2 ,3 ]
查宏远 [2 ,3 ]
何积丰 [1 ,3 ]
机构
[1] 华东师范大学软件工程学院
[2] 华东师范大学计算机科学与技术学院
[3] 上海自主智能无人系统科学中心可信人工智能研究所
基金
国家重点研发计划; 上海市自然科学基金;
关键词
可信人工智能; 可信机器学习; 公平性; 统计公平; 因果公平; 公平表征; 公平建模; 公平决策;
D O I
10.13328/j.cnki.jos.006214
中图分类号
TP181 [自动推理、机器学习];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
人工智能在与人类生活息息相关的场景中自主决策时,正逐渐面临法律或伦理的问题或风险.可信机器学习是建立安全人工智能系统的核心技术,是人工智能领域的热门研究方向,而公平性是可信机器学习的重要考量.公平性旨在研究机器学习算法决策对个人或群体不存在因其固有或后天属性所引起的偏见或偏爱.从公平表征、公平建模和公平决策这3个角度出发,以典型案例中不公平问题及其危害为驱动,分析数据和算法中造成不公平的潜在原因,建立机器学习中的公平性抽象定义及其分类体系,进一步研究用于消除不公平的机制.可信机器学习中的公平性研究在人工智能多个领域中处于起步阶段,如计算机视觉、自然语言处理、推荐系统、多智能体系统和联邦学习等.建立具备公平决策能力的人工智能算法,是加速推广人工智能落地的必要条件,且极具理论意义和应用价值.
引用
收藏
页码:1404 / 1426
页数:23
相关论文
共 27 条
[1]   机器学习隐私保护研究综述 [J].
谭作文 ;
张连福 .
软件学报, 2020, 31 (07) :2127-2156
[2]   深度学习可解释性研究进展 [J].
成科扬 ;
王宁 ;
师文喜 ;
詹永照 .
计算机研究与发展, 2020, (06) :1208-1217
[3]   人工智能时代的数据隐私、垄断与公平 [J].
孟小峰 ;
王雷霞 ;
刘俊旭 .
大数据, 2020, 6 (01) :35-46
[4]   机器学习中的隐私攻击与防御 [J].
刘睿瑄 ;
陈红 ;
郭若杨 ;
赵丹 ;
梁文娟 ;
李翠平 .
软件学报, 2020, 31 (03) :866-892
[5]   安全可信人工智能 [J].
何积丰 .
信息安全与通信保密, 2019, (10) :5-8
[6]  
机器学习[M]. 清华大学出版社 , 周志华, 2016
[7]  
Incremental Fairness in Two-Sided Market Platforms: On Smoothly Updating Recommendations[J] . Gourab K. Patro,Abhijnan Chakraborty,Niloy Ganguly,Krishna Gummadi.Proceedings of the AAAI Conference on Artificial Intelligence . 2020 (01)
[8]  
Automatically Neutralizing Subjective Bias in Text[J] . Reid Pryzant,Richard Diehl Martinez,Nathan Dass,Sadao Kurohashi,Dan Jurafsky,Diyi Yang.Proceedings of the AAAI Conference on Artificial Intelligence . 2020 (01)
[9]  
Algorithms, platforms, and ethnic bias[J] . Selena Silva,Martin Kenney.Communications of the ACM . 2019 (11)
[10]  
Group Fairness for the Allocation of Indivisible Goods[J] . Vincent Conitzer,Rupert Freeman,Nisarg Shah,Jennifer Wortman Vaughan.Proceedings of the AAAI Conference on Artificial Intelligence . 2019