促进生成式人工智能规范发展的法治考量及实践架构——兼评《生成式人工智能服务管理暂行办法》相关条款

被引:26
作者
陈兵 [1 ,2 ,3 ]
机构
[1] 南开大学法学院
[2] 南开大学竞争法研究中心
[3] 南开大学数字经济交叉科学中心
关键词
生成式人工智能; 风险; 域外法治; 法治考量; 实践架构;
D O I
暂无
中图分类号
D922.17 [科学技术管理法令];
学科分类号
摘要
当前,全球范围内生成式人工智能技术和服务进入爆炸式增长阶段,其在为社会经济带来技术进步和生产力增进的同时,也引发各种法律风险、科技伦理风险及社会治理风险。对于人工智能的发展,欧盟采取严格的法治监管态度,通过统一规则和监管机构统筹构建人工智能规范事宜;美国则采取原则性和倡导性的监管策略,在尊重企业自主权的同时,明确企业合规的要求;英国仅明确原则而不做强制要求,采取原则性的折衷监管方式。比较域外经验,立足我国参与人工智能国际竞争的现实需求,对生成式人工智能的法治考量应根据技术与法律的交互、发展与安全的平衡,在法治架构中为人工智能规范发展设置安全性、可靠性、可控性要求。为此,需加强相关政策与制度的供给,尽快建立多元长效监管机制,设立规范统一的责任规则,以此建立全周期、系统性、立体化的法治实践架构,在恪守安全底线之上,大力促进生成式人工智能规范发展。
引用
收藏
页码:108 / 125
页数:18
相关论文
共 33 条