当人工智能因深度学习而从他律系统转化为自律系统,特别是在人工智能网络之间的相互作用及其连锁反应不断进行的情况下,黑箱化和失控的风险会不断增大。"透明社会"与"黑箱算法",这是数据驱动社会的一对根本矛盾,对国家治理方式的改革提出了新的挑战,也提供了新的机遇。为此,如何对人工智能进行适当的、合理的、充分的规制,确立人工智能开发的规则、伦理以及政策就势必成为极其重要并非常紧迫的一项课题。国务院印发的2017年《新一代人工智能发展规划》提出了人工智能发展的中国式制度安排以及九条主要原则,与国际社会已经形成的基本共识是相洽的;但在不同价值取向发生冲突时,怎样决定取舍的元规则和优先顺序还有待进一步明确。为了在甄别和防范风险的同时保护人工智能开发的积极性和创造性,有必要更多地采取软法方式,而不是简单地提高硬法的惩戒力度。