共 26 条
论人工智能监管底线的设置:基于主体性的探究
被引:5
作者:
谢新水
[1
]
袁汝兵
[2
]
机构:
[1] 首都师范大学管理学院
[2] 北京市科学技术情报研究所
来源:
关键词:
人工智能时代;
主体性;
反思性;
监管底线;
D O I:
10.16133/j.cnki.xxlt.2020.08.006
中图分类号:
TP18 [人工智能理论];
D035 [国家行政管理];
学科分类号:
081104 ;
0812 ;
0835 ;
1405 ;
1204 ;
120401 ;
摘要:
人工智能带来了类别和程度不同的风险,监管人工智能也要做出相应的分类,并采取相应的对策。就逻辑上而言,人是唯一具有反思能力的主体,也只有具有反思能力的主体才具有颠覆人类力量的可能。因此,设置人工智能监管底线的依据是人的主体性。目前,人工智能技术还没有冲击人的主体性,一旦它具有反思性并将自我定义为主体行动者,那么它将通过"革命"行动去建设自己的"新世界"。在这一意义上,设置人工智能监管底线的基本目标是消除它对人主体性的冲击、打击和替代。从理论价值来说,在人工智能时代,将主体性问题引入人工智能监管底线的设置中,就开启了符合时代要求的哲学思考。从实践价值来说,人工智能监管底线的设置是防止这一技术引起的社会意义风险。厘清人工智能的监管底线,既探明了使用人工智能技术的范围,又可以避免过度担忧这一技术带来的威胁,对人工智能和人的可持续发展同样重要。可以乐观地认为,人发明的技术不会糊涂到毁掉人类自身,除非是那些不遵守技术风险底线者故意所为,所以,坚守监管底线就是关键。
引用
收藏
页码:41 / 49
页数:9
相关论文