人工智能时代的道德:让算法遵循“善法”

被引:23
作者
田海平
郑春林
机构
[1] 北京师范大学哲学学院
关键词
人工智能; 算法; 道德; 伦理; 善法;
D O I
10.13916/j.cnki.issn1671-511x.2019.05.001
中图分类号
F49 [信息产业经济];
学科分类号
1201 ;
摘要
人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟。人工智能的规范者指引应从"人为自己立法"的原理中产生。对于智能体的伦理框架而言,"让算法遵循‘善法’"是一条自明性原则,可称为"算法从善"原则。该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持。由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度。它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式"。对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线。
引用
收藏
页码:5 / 13+146 +146
页数:10
相关论文
共 5 条
[1]   媒体算法的价值纠缠与伦理误区 [J].
刘海明 .
湖南师范大学社会科学学报, 2019, 48 (01) :32-41
[2]   论机器人道德能力的建构 [J].
杜严勇 .
自然辩证法研究, 2018, 34 (05) :43-48
[4]  
未来简史[M]. 中信出版社 , 尤瓦尔·赫拉利, 2017
[5]  
Ethics Guidelines for Trustworthy AI .2 European Commission. http://ec.europa.eu/futurium/ai-alliance-consultation/guidelines .