可信任:人工智能伦理未来图景的一种有效描绘

被引:18
作者
闫宏秀
机构
[1] 上海交通大学
关键词
信任度; 人工智能; 伦理;
D O I
暂无
中图分类号
TP18 [人工智能理论]; B82-057 [道德与科学技术];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ; 01 ; 0101 ;
摘要
可信任人工智能的构建发端于人对技术伦理旨趣的审度,可信任的存在逻辑在于人工智能创建了基于任务和基于目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任。可信任人工智能应基于信任边界厘清的前提下,兼顾技术伦理学的通用原则和人工智能自身的技术特性,在有效监督和对技术动态的发展与应用的审慎批判中,确保人工智能向善。反观欧盟的"可信任人工智能的伦理框架",其所阐述的技术与非技术两个方面的构建路径、判别标准为可信任人工智能实现提供了有效的实践保障,但其对信任边界问题的搁置或排除则使其有效性遭遇质疑。
引用
收藏
页码:38 / 42+63 +63
页数:6
相关论文
共 13 条
[1]  
Defining Trust and E-Trust: From Old Theories to New Problems[J] . Mariarosaria Taddeo. &nbspInternational Journal of Technology and Human Interaction (IJTHI) . 2009 (2)
[2]  
Morality and Technology: The End of the Means. Bruno Latour,Couze Venn. Theory Culture & Society . 2002
[3]  
Building Trust in Artificial Intelligence,Machine Learning,and Robotics. Keng Siau,Weiyu Wang. CUTTER BUSINESS TECHNOLOGY JOURNAL . 2018
[4]  
现代性的后果. 安东尼.吉登斯,田禾,译. 译林出版社 . 2007
[5]  
Trust: Making and Breaking Cooperative Relations. Gambetta D. Oxford . 1988
[6]  
Ethics Guidelines for Trustworthy AI. European Com mission. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines .
[7]  
Trust and power. Luhmann,N. Polity Press . 2017
[8]  
Stanford University launches the Institute for Human-Centered Artificial Intelligence. Adams,A. https://philosophy.stanford.edu/news/stanford-university-launches-institutehuman-centered-artificial-intelligence .
[9]   On the morality of artificial agents [J].
Floridi, L ;
Sanders, JW .
MINDS AND MACHINES, 2004, 14 (03) :349-379
[10]  
人性论[M]. 商务印书馆 , 大卫·休谟, 2016