4月24日,在2026新京智库春季论坛“‘人工智能+’进行时——从技术竞速到场景深耕”分论坛上,中国信通院互联网法律研究中心主任、高级工程师何波表示,中国人工智能产业的蓬勃发展离不开法治的高质量护航。我们始终把人工智能这一新技术作为整个互联网治理和网络空间法治建设的重要内容,当前中国已经初步构建形成了一个涵盖算法、数据、应用等多维度的人工智能法律规制的框架。
何波系统梳理了中国自1994年全功能接入国际互联网32年来,法治建设与技术产业发展同步演进的历史脉络。他强调,从传统的“互联网+”到当下的“人工智能+”,技术的每一次跃进都对治理提出了更高要求。“技术前进一小步,治理难度增加一大步”,在人工智能技术快速发展应用过程中,安全风险不断加剧,治理难度增大。
中国信通院互联网法律研究中心主任、高级工程师何波。
中国人工智能发展治理“有法可依”
针对国内外关于中国人工智能领域存在“法律滞后”“监管空白”等论调,何波在演讲中予以了明确回应。他认为这是一种误解,强调法律的普遍适用性决定了互联网时代的诸多法律在人工智能时代依然有效,同时,中国把握人工智能发展趋势和规律,不断加强人工智能相关立法工作,已经具备良好的制度基础,有力支撑了中国人工智能产业技术发展和治理工作。
何波指出,中国的人工智能立法呈现出“基础通用法+专门场景规范”的鲜明特点。一方面,《网络安全法》《电子商务法》《民法典》等传统法律中关于数据、算法、个人信息保护等方面的规定,明确了人工智能发展和治理的基础制度和共性问题。尤其值得关注的是,去年下半年《网络安全法》完成修订,首次在法律层面对人工智能安全与发展作出综合性规定,明确了国家支持人工智能基础理论研究、关键技术研发,并鼓励利用人工智能进行网络安全创新。
“这为后续开展人工智能发展治理、促进人工智能健康发展提供了上位法依据,划定了发展的底线和红线,具有里程碑意义。”何波强调。
另一方面,中国采取了“小步快跑”的立法策略,针对实践中凸显的具体问题精准施策。他举例说,本月刚刚出台的《人工智能拟人化互动服务管理暂行办法》,以及去年发布的《人脸识别技术应用安全管理办法》等,都是对人工智能具体应用场景的快速法治回应。
四大核心挑战:从数据供给到责任界定
尽管现有法律框架发挥了积极作用,但面对日新月异的人工智能技术,何波坦言,制度创新仍需与技术创新同步推进。他重点指出了未来亟待解决的四大制度性问题。
第一,管理模式亟待明确。何波提出,欧盟已经提出要基于人工智能的风险进行管理,将人工智能分为不可接受风险、高风险、有限风险、低风险几个等级。那我们是否应该对中国的人工智能实施基于风险的分级分类管理?如果对人工智能分类分级监管,标准是什么?分类的标准究竟应基于技术本身,还是其应用场景?这是未来立法必须回答的重要问题。
第二,高质量数据供给仍面临制度瓶颈。何波表示,这是当前实践中面临的最迫切的问题之一。人工智能模型在获取和使用高质量数据资源及语料库时,存在部分数据作为训练数据合法性存疑、数据质量无法保障、版权数据“合理使用”边界依然模糊等问题,需要进一步推进个人信息、版权数据相关规则完善,破除人工智能发展制度瓶颈。如何在保护个人信息与促进数据安全高效利用、平衡版权方利益与人工智能技术发展需求之间找到出路,是未来立法的关键任务。
第三,复杂场景下的法律责任归属不清。人工智能既包括产品,也包括服务,主要的侵权情形包括开发者/部署者等导致的内生安全侵权,以及用户滥用、误用侵权。面对人工智能复杂的应用链路,法律需要进一步对责任认定和责任承担进行明确。何波以无人驾驶汽车交通事故为例,指出人工智能从研发、部署到终端使用,涉及开发者、服务提供者和用户等多个主体,不同主体的边界尚未厘清,模型研发者与服务提供者存在一定混淆,责任链条复杂。未来需要通过立法明确责任基础,合理设计适用何种归责原则。
第四,数据跨境流动便利化水平有待提升。何波指出,人工智能已是全球性议题,人工智能发展对数据跨境流动需求日益增长。虽然中国已构建了相对完善的数据跨境流动规则,但如何有效获取境外高质量数据集仍是难题,特别是面对美国等国的数据限制政策。如何进一步优化制度设计,既保障安全又满足企业“走出去”和“引进来”的数据需求,是高水平对外开放下的新课题。
最后,何波表示,面向“人工智能+”时代,中国需要坚持体系化的法治思路,本着积极稳妥的理念,最终构建起涵盖法律、行政法规、部门规章和地方性法规在内的多层次规范体系,为人工智能的健康、可持续发展提供坚实的制度保障。
新京报贝壳财经记者 陶野 编辑 陈莉 校对 赵琳