主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响

被引:18
作者
高奇琦 [1 ]
张蓥文 [2 ]
机构
[1] 华东政法大学政治学研究院
[2] 不详
关键词
人工智能通用大模型; ChatGPT; 主体责任; 全球安全;
D O I
10.14093/j.cnki.cn10-1132/d.2023.03.001
中图分类号
TP18 [人工智能理论]; D815.5 [国际安全问题,国际反恐怖、缉毒活动];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ; 1402 ;
摘要
在人工智能时代,以ChatGPT为代表的人工智能通用大模型将可能冲击全球安全互动中的“主体责任制”,造成安全主体的模糊化与责任缺失、安全客体责任的离散化与安全责任追责难等一系列问题。由于人工智能技术由弱向强、迭代演进的技术发展逻辑,不同技术阶段的“主体性危机”与“责任危机”的形态和程度各异。在弱人工智能时代,低智性通用大模型的赋能作用可能会强化安全互动场域中的边缘安全主体责任。安全互动呈现出多重安全主体并存与安全客体责任离散的互动模式。在强人工智能时代,通用大模型被拟造为“类人”主体,成为多重安全主体中的一分子,安全互动呈现出无秩序形态。既有安全主体可能会表现出过度依赖算法和主体权力被侵蚀的特征,而安全客体则表现为普遍卸责和主体责任终结的特点。为解决上述问题,需要从安全主体互动的“主体间性”层面入手,在弱人工智能时代,可利用区块链与人工智能技术形成合力,并细化事前责任;而在强人工智能时代,则可凭借大国协调,在确立智能体“半主体”身份后,建立一种“监护人”制度,在主体间性的逻辑上开展全球安全实践。
引用
收藏
页码:3 / 27+157 +157
页数:26
相关论文
共 54 条