生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

被引:204
作者
刘艳红
机构
[1] 中国政法大学刑事司法学院
关键词
ChatGPT; 生成式人工智能; 合规制度; 数据安全; 算法偏见; 知识产权;
D O I
10.19404/j.cnki.dffx.20230606.003
中图分类号
D922.16 [文教、卫生管理法令]; TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。
引用
收藏
页码:29 / 43
页数:15
相关论文
共 59 条