构建人工智能安全治理体系

2025-03-25 作者: 来源: 大众日报
  □ 杨 蕾

  以生成式人工智能为代表的新技术快速推动世界进入智能化新时代。人工智能不仅重塑经济社会发展方式,更深刻影响全球科技经济竞争格局。与此同时,人工智能的核心技术如算法、数据和算力本身的安全隐患,叠加人工智能与工业制造、智慧城市、电子政务、国防军事等领域的深度融合带来的外溢风险和技术快速更新迭代带来的监管压力等,为人工智能安全治理带来多重挑战。
  探索契合我国人工智能发展水平和安全要求的治理模式,应当以总体国家安全观为根本遵循,探索统筹安全与发展的安全治理模式,完善法律规制、技术创新、伦理规范、审慎监管等多位一体的安全治理体系,实现“风险可控、创新可持续”的治理目标,从而推动人工智能安全可控发展。
  构建统筹安全与发展的治理模式
  党的二十届三中全会提出建立人工智能安全监管制度,健全分级分类监管体系、完善安全监管规则、增强安全风险的分析评估预警等,提升人工智能安全治理能力。当前,我国积极建构统筹人工智能安全与发展的治理模式,以安全保障促进产业技术发展。
  一是顶层制度设计、政策支持和环境塑造等多管齐下,积极谋划人工智能的技术产业发展格局。通过《新一代人工智能发展规划》等发展规划、产业布局和科技创新等顶层设计,深入贯彻发展和安全并重、创新发展和有效化解安全风险相结合、合作共治等治理原则。实施创新驱动发展战略,对人工智能实施包容审慎和分类分级的监管措施,采取有效措施激励算法芯片等核心科技研发、完善科技创新体系、健全算力等智能化基础设施等,为人工智能产业发展、与经济社会深度融合提供制度供给。
  二是在生成式人工智能、算法、深度合成等领域,不断完善人工智能安全治理规则体系。我国注重对人工智能算法的透明度、模型的可解释性、算法推荐的公平公正、深度合成技术散布虚假信息内容、生成式人工智能的内容安全等不同领域的安全治理,防范可能引发的国家安全、社会秩序等公共利益、隐私权等合法权利等安全风险。
  三是我国积极参与人工智能安全治理的国际实践,在治理规则制定、协同机制构建、实践推动等领域贡献力量。我国陆续颁布《全球人工智能治理倡议》《加强人工智能能力建设国际合作决议》等,对人工智能的安全与发展、治理模式和路径等核心内容进行了详细阐释,提出以人为本和智能向善等治理原则,主张人工智能发展应兼顾技术的安全可靠可控,提出依据人工智能安全风险等级建立分级监管制度等治理举措。
完善法律规则体系防范安全风险
  随着《中华人民共和国民法典》《生成式人工智能服务管理暂行办法》等法律法规的颁布实施,数据安全、数据隐私保护、生成式人工智能产品的安全评估、算法和模型备案、信息内容安全、个人隐私保护、法定责任承担等法律规则体系逐步形成。笔者认为,应进一步加强对人工智能风险的分级分类、技术和安全监管的行政法律制度、法律责任主体、法律责任类型和承担方式等法律制度的研究和法律实践总结。逐步完善以综合性立法和算法管理等专门立法为主干,以数据安全、个人信息保护等领域法律法规为相关法,以伦理规则、行业自律规范等为补充的人工智能法律体系。
  第一,推动核心科技自主创新筑牢人工智能安全底座。人工智能算法的技术垄断、自身漏洞和算力基础设施的对外依赖,会导致模型篡改和恶意攻击,影响系统运行稳定。数据缺乏加密或者脱敏处理措施,会导致敏感数据泄露、数据篡改、数据滥用等安全风险。人工智能与经济社会的深度融合,会导致能源、通信等关键信息基础设施和重要信息系统的溢出风险。
  防范应对复杂多样的安全风险,人工智能安全治理应当遵循“一体之两翼、驱动之双轮”理念,做到科技创新、产业发展和安全治理的统一谋划部署、统一推进实施,应高度重视并加强安全可信的人工智能技术创新,切实解决安全风险,防范“两高一低”(高成本、高门槛和低效能)等问题。一是推动人工智能智算公共服务平台等基础设施建设。对人工智能训练、应用和安全风险防控进行统一部署,搭建基于云数据为中心的智算公共服务平台,可以实现对不同区域和领域算力资源的智能调度和风险评估管控,提供基础算力、智算资源、模型训练、安全评测预警等公共服务,从而有效推动人工智能的商业化应用,调动不同行业领域构建人工智能垂域模型、模型训练和算法创新的积极性。二是强化算法的安全评估,实现模型漏洞的自动扫描。三是加强风险等级自评系统的研发,实现人工智能系统的风险类别快速判断。四是加强生成内容识别、算法优化模型创新和隐形水印等技术的研发应用,高效识别、评估、溯源、拦截有害内容,防范虚假信息传播。
  第二,完善人工智能伦理的治理框架。人工智能缺乏伦理约束会导致技术蒙昧主义蔓延、公民尊严权益侵害、偏见歧视、信任体系损害、危害社会稳定和国家安全甚至危及人类主体地位等不同维度的伦理风险。应细化人工智能伦理规则体系,建立伦理审查、监督和反馈机制,确保人工智能技术产业发展恪守人类社会的基本道德准则。一是在人工智能的行政监管、设计开发、部署使用等不同环节,完善人工智能伦理风险的治理原则和治理措施。基于《新一代人工智能伦理规范》等规定,在人工智能的数据处理、算法模型设计开发、部署交付等全生命周期,明确促进人类福祉、保障公平公正、保护人类权益、可控可信等治理原则。制定具有可操作性的知情同意、透明可追溯、公平无歧视、监测与改进、责任承担等伦理细则。二是构建以人工智能伦理委员会为核心的伦理治理组织架构,承担伦理咨询、风险评估、审查、处置等职责,行使对人工智能高风险应用的否决权力。三是应对人工智能技术的快速迭代升级,贯彻人工智能伦理风险的动态敏捷,及时判断识别新型伦理风险,动态调整伦理风险级别。
  第三,坚持包容审慎的监管原则。一是落实包容审慎的监管原则,鼓励人工智能技术产业的创新发展。构建并完善跨部门协同治理机制和部门联合执法合作机制,允许在可控环境下测试人工智能技术的测试和应用,同步积累安全风险数据优化监管方式和政策。二是不断完善人工智能风险评估指标体系,探索构建人工智能的分级分类监管制度。明确人工智能的安全风险类型包括政治风险、违法犯罪、引发社会歧视等。依据社会领域属性、用户数量规模、风险类型和影响程度等标准,将人工智能的安全风险分为不可接受风险、高风险、可控风险和低风险等不同等级,并采取禁止应用、严格监管等分级分类监管措施。三是落实人工智能企业的安全主体责任,重视对模型训练、算法设计和终端应用等全环节的过程监管,督促企业完善安全管理制度、数据隐私保护、安全应急处置等措施。
  (作者系山东建筑大学马克思主义学院副教授)
  □ 杨 蕾

  以生成式人工智能为代表的新技术快速推动世界进入智能化新时代。人工智能不仅重塑经济社会发展方式,更深刻影响全球科技经济竞争格局。与此同时,人工智能的核心技术如算法、数据和算力本身的安全隐患,叠加人工智能与工业制造、智慧城市、电子政务、国防军事等领域的深度融合带来的外溢风险和技术快速更新迭代带来的监管压力等,为人工智能安全治理带来多重挑战。
  探索契合我国人工智能发展水平和安全要求的治理模式,应当以总体国家安全观为根本遵循,探索统筹安全与发展的安全治理模式,完善法律规制、技术创新、伦理规范、审慎监管等多位一体的安全治理体系,实现“风险可控、创新可持续”的治理目标,从而推动人工智能安全可控发展。
  构建统筹安全与发展的治理模式
  党的二十届三中全会提出建立人工智能安全监管制度,健全分级分类监管体系、完善安全监管规则、增强安全风险的分析评估预警等,提升人工智能安全治理能力。当前,我国积极建构统筹人工智能安全与发展的治理模式,以安全保障促进产业技术发展。
  一是顶层制度设计、政策支持和环境塑造等多管齐下,积极谋划人工智能的技术产业发展格局。通过《新一代人工智能发展规划》等发展规划、产业布局和科技创新等顶层设计,深入贯彻发展和安全并重、创新发展和有效化解安全风险相结合、合作共治等治理原则。实施创新驱动发展战略,对人工智能实施包容审慎和分类分级的监管措施,采取有效措施激励算法芯片等核心科技研发、完善科技创新体系、健全算力等智能化基础设施等,为人工智能产业发展、与经济社会深度融合提供制度供给。
  二是在生成式人工智能、算法、深度合成等领域,不断完善人工智能安全治理规则体系。我国注重对人工智能算法的透明度、模型的可解释性、算法推荐的公平公正、深度合成技术散布虚假信息内容、生成式人工智能的内容安全等不同领域的安全治理,防范可能引发的国家安全、社会秩序等公共利益、隐私权等合法权利等安全风险。
  三是我国积极参与人工智能安全治理的国际实践,在治理规则制定、协同机制构建、实践推动等领域贡献力量。我国陆续颁布《全球人工智能治理倡议》《加强人工智能能力建设国际合作决议》等,对人工智能的安全与发展、治理模式和路径等核心内容进行了详细阐释,提出以人为本和智能向善等治理原则,主张人工智能发展应兼顾技术的安全可靠可控,提出依据人工智能安全风险等级建立分级监管制度等治理举措。
完善法律规则体系防范安全风险
  随着《中华人民共和国民法典》《生成式人工智能服务管理暂行办法》等法律法规的颁布实施,数据安全、数据隐私保护、生成式人工智能产品的安全评估、算法和模型备案、信息内容安全、个人隐私保护、法定责任承担等法律规则体系逐步形成。笔者认为,应进一步加强对人工智能风险的分级分类、技术和安全监管的行政法律制度、法律责任主体、法律责任类型和承担方式等法律制度的研究和法律实践总结。逐步完善以综合性立法和算法管理等专门立法为主干,以数据安全、个人信息保护等领域法律法规为相关法,以伦理规则、行业自律规范等为补充的人工智能法律体系。
  第一,推动核心科技自主创新筑牢人工智能安全底座。人工智能算法的技术垄断、自身漏洞和算力基础设施的对外依赖,会导致模型篡改和恶意攻击,影响系统运行稳定。数据缺乏加密或者脱敏处理措施,会导致敏感数据泄露、数据篡改、数据滥用等安全风险。人工智能与经济社会的深度融合,会导致能源、通信等关键信息基础设施和重要信息系统的溢出风险。
  防范应对复杂多样的安全风险,人工智能安全治理应当遵循“一体之两翼、驱动之双轮”理念,做到科技创新、产业发展和安全治理的统一谋划部署、统一推进实施,应高度重视并加强安全可信的人工智能技术创新,切实解决安全风险,防范“两高一低”(高成本、高门槛和低效能)等问题。一是推动人工智能智算公共服务平台等基础设施建设。对人工智能训练、应用和安全风险防控进行统一部署,搭建基于云数据为中心的智算公共服务平台,可以实现对不同区域和领域算力资源的智能调度和风险评估管控,提供基础算力、智算资源、模型训练、安全评测预警等公共服务,从而有效推动人工智能的商业化应用,调动不同行业领域构建人工智能垂域模型、模型训练和算法创新的积极性。二是强化算法的安全评估,实现模型漏洞的自动扫描。三是加强风险等级自评系统的研发,实现人工智能系统的风险类别快速判断。四是加强生成内容识别、算法优化模型创新和隐形水印等技术的研发应用,高效识别、评估、溯源、拦截有害内容,防范虚假信息传播。
  第二,完善人工智能伦理的治理框架。人工智能缺乏伦理约束会导致技术蒙昧主义蔓延、公民尊严权益侵害、偏见歧视、信任体系损害、危害社会稳定和国家安全甚至危及人类主体地位等不同维度的伦理风险。应细化人工智能伦理规则体系,建立伦理审查、监督和反馈机制,确保人工智能技术产业发展恪守人类社会的基本道德准则。一是在人工智能的行政监管、设计开发、部署使用等不同环节,完善人工智能伦理风险的治理原则和治理措施。基于《新一代人工智能伦理规范》等规定,在人工智能的数据处理、算法模型设计开发、部署交付等全生命周期,明确促进人类福祉、保障公平公正、保护人类权益、可控可信等治理原则。制定具有可操作性的知情同意、透明可追溯、公平无歧视、监测与改进、责任承担等伦理细则。二是构建以人工智能伦理委员会为核心的伦理治理组织架构,承担伦理咨询、风险评估、审查、处置等职责,行使对人工智能高风险应用的否决权力。三是应对人工智能技术的快速迭代升级,贯彻人工智能伦理风险的动态敏捷,及时判断识别新型伦理风险,动态调整伦理风险级别。
  第三,坚持包容审慎的监管原则。一是落实包容审慎的监管原则,鼓励人工智能技术产业的创新发展。构建并完善跨部门协同治理机制和部门联合执法合作机制,允许在可控环境下测试人工智能技术的测试和应用,同步积累安全风险数据优化监管方式和政策。二是不断完善人工智能风险评估指标体系,探索构建人工智能的分级分类监管制度。明确人工智能的安全风险类型包括政治风险、违法犯罪、引发社会歧视等。依据社会领域属性、用户数量规模、风险类型和影响程度等标准,将人工智能的安全风险分为不可接受风险、高风险、可控风险和低风险等不同等级,并采取禁止应用、严格监管等分级分类监管措施。三是落实人工智能企业的安全主体责任,重视对模型训练、算法设计和终端应用等全环节的过程监管,督促企业完善安全管理制度、数据隐私保护、安全应急处置等措施。
  (作者系山东建筑大学马克思主义学院副教授)