论可解释的人工智能之制度构建

被引:22
作者
刘云
机构
[1] 清华大学法学院
关键词
人工智能; 可解释性; 算法黑箱; 算法解释权; 算法评估;
D O I
暂无
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
依赖于大数据的人工智能技术存在算法黑箱的固有缺陷,构建具有可解释性的人工智能是保障用户实现相关权益的前提,是促进社会形成人工智能准确认知和良好信心的必然选择,是实现透明、可控、负责任人工智能发展的基础,也是人工智能成为一门科学的内在要求。任何人工智能都不是完全不具有可解释性的,它们都在一定范围内具有相当程度的可解释性的。私法上的算法解释权属于事后救济权,是用户请求网络运营者对个人权益有重大影响的自动化决策予以解释的权利,限于调整基于连接主义的黑盒算法,解释的水平应当符合现有科学技术水平。在潜在风险发生之前和存在损害普遍多数用户利益的情况下,应当引入算法影响评估、告知义务、外部算法问责,从而以积极的方式促进人工智能的可解释性,提高算法透明度以构建公共信任的基础。我国《个人信息保护法(草案)》已经为个人信息处理领域的人工智能可解释性提供了充分的法律依据,未来还需要通过专门的人工智能立法围绕"可解释性"作出合理制度安排。
引用
收藏
页码:113 / 119
页数:7
相关论文
共 20 条