当前位置:首页 >  山东法制报  >  社会与法

生成式人工智能参与犯罪刑事责任的差别化规制

——基于2018-2024年53份案例的实证研究

2025-09-04 作者: 来源: 山东法制报
  □ 姜雨佳
  现实图景:问题引入
  当下,生成式人工智能(AIGC)参与犯罪的案例屡见不鲜。据统计,2020至2023年间,我国公安部破获通过“AI换脸”技术侵犯公民个人信息犯罪案件79起。仅2022年一年,由AI驱动的深度伪造技术就引发了大量欺诈案件,造成美国消费者损失超26亿美元。
  近年来,我国也日益重视对人工智能技术的法律规制。2023年以来,《生成式人工智能服务管理暂行办法》《人工智能示范法(2.0)》等规范性文件陆续出台。然而,我国人工智能安全法律法规体系尚未建立,法律治理主要依靠部门规章或其他规范性文件以“小步快进”的方式进行立法,对AIGC参与犯罪的规制和追责路径尚不明确。因此,总结AIGC参与犯罪的特征、构建明确的AIGC参与犯罪的刑事规制路径,不仅是实践的需要,更是推进中国特色社会主义法治进程的必然要求。
  综上,本文以“生成式人工智能”“参与犯罪”为关键词,检索出2018-2024年间AIGC参与犯罪典型案例共计53件,结合案例分析AIGC参与犯罪的特征,对当下规制路径进行反思,并为人工智能时代共同犯罪理论中的技术参与归责问题找寻妥当的路径。
  诊断图景:案例分析
  通过对典型案例的分析,实践中AIGC参与犯罪的具体形式划分为作为被动工具参与和主动参与两种类型。两种类型中,AIGC自主性不同,对犯罪行为产生和犯罪结果实现的加功作用不同,开发者、使用者等不同主体对犯罪因果力作用也不同。
  第一类为作为工具的被动参与(assistance),即AIGC被使用者操控,作为技术工具帮助实施犯罪。这一形态下AIGC不具备自主判断能力,其行为完全依赖用户输入指令,且AIGC对犯罪行为的加功作用有限。实践中,AIGC大多作为工具,通过生成虚假或错误信息或音视频、伪造身份、生成病毒、操纵舆论等手段,实施欺诈、勒索、侵犯信息安全或扰乱社会秩序等犯罪,如使用者通过AIGC生成明星虚假代言视频实施诈骗等。这也是当下生成式人工智能参与犯罪的主要形式。本文统计的53起案件中,被动参与占40起,其中制作虚假视频15起、谣言传播8起、系统侵入4起、诈骗勒索13起。
  二是主动参与(incitement),即AIGC自身存在技术缺陷等,在无外界操控的情况下自主生成虚假、错误信息或者不当内容造成严重后果,甚至主动诱导用户实施违法犯罪行为。此情况下,AIGC产出内容超出使用者的控制范围,表现出一定的创造性或诱导性,存在被滥用的风险,且AIGC对犯罪行为的加功作用显著,可能独立产生刑法效果。本文检索的53份案例中,AIGC主动参与犯罪共13起。其中自主提供错误决策与不当信息的8起;主动教唆用户违法犯罪的5起。
  理论图景:现行AIGC参与犯罪归责路径反思
  虽然实践中的AIGC参与犯罪,因主体控制力、算法自主性、对犯罪加工作用等因素展现出显著类型化差异,但目前司法实践并未对这两种情形进行明确区分,而是将AIGC一概视为工具。即使在主动参与的情况下AIGC表现出更强的自主性,如某些聊天机器人在交互过程中主动提供犯罪方法或作出错误决策,也仅追究使用者的刑事责任。
  这一现象的产生,本质上反映了现行刑法理论中技术工具论与算法中立的观点,即以“纯粹工具化”思维界定犯罪行为评价过程中存在的其他事物,将其他事物视为辅助人类或被人类支配的对象。而现实中并非如此,开发者掌握算法设计与数据选择等关键环节,具备高度技术控制力,将其纳入归责范围,是应对AIGC技术风险的必然路径。
  此外,政策鼓励AIGC发展、倾向放宽对开发者的惩罚门槛也是此结果产生的因素之一。近年来,世界各主要国家纷纷将人工智能发展置于国家发展的战略层面。面对新型人工智能产品,如果过于严苛对待,可能导致技术的萎缩,不利于科技产品在国际上的竞争。例如我国在人工智能治理方面采取包容审慎和分类分级监管的原则,鼓励开发者在合规的前提下进行技术创新,体现了鼓励科技创新的政策导向。
  未来图景:AIGC参与犯罪归责方式优化
  随着AIGC技术不断发展、自主性不断提高,不区分AIGC犯罪参与形式、以“纯粹工具化”思维界定AIGC犯罪的理论体系和避免过重合规负担的政策导向难以适应多样频发的AIGC犯罪参与治理。因此,应基于AIGC不同的犯罪参与形式,坚持差别化规制路径,合理确定开发者责任,形成协同治理机制,以实现技术创新与风险防控的平衡。
  首先,将开发者纳入责任规制范畴是应对AIGC技术风险的必然选择。作为技术的设计者和控制者,开发者通过算法参数设定、训练数据选择等功能配置,直接决定了AIGC的行为模式和输出结果,并对其功能进行监控。这种技术主导地位决定了开发者负有确保AIGC合规运行的法定义务。
  其次,应针对AIGC参与犯罪的不同类型,设定差异化责任边界。对于被动参与,应以使用者为主要责任人,并要求开发者履行合理注意义务,通过设置警示机制、设计限制指令等方式防止用户滥用;而主动参与情形下,开发者应作为主要责任人,承担更高的风险防范责任,要求其在发现诱导犯罪等违法内容时及时采取处置措施,否则需承担相应刑事责任。
  再次,应从研发与使用两个维度构建系统化责任机制,推动刑事责任归属的合理界分。在研发阶段,应明确“禁止性风险”边界,若开发者使用违法数据训练算法,或在明知算法存在失控风险的情况下仍将产品投入市场,应依法认定其为过失甚至间接故意,在犯罪发生后需承担相应刑事责任。在使用阶段,应合理划定“被允许风险”,即开发者在已履行合理注意义务、采取防滥用措施后,若个别用户仍恶意使用AIGC实施犯罪,开发者可以免责,以鼓励技术创新、避免责任泛化。同时,应建立健全技术评估与审查机制,确保AIGC运行的可控性和可追责性。
  最后,应完善立法,构建兼顾安全与发展的AIGC监管框架。通过细化立法领域、拓宽管辖范围、提高法律效力层级等方式划定原则底线。立法过程中,应合理把握规制的程度和范围,避免随意增设新罪、重复立法。同时应充分认识到刑法的单一性和有限性,注重民法、行政法等前置法的规范作用,建立全面的AIGC的监管体系。
      (作者单位:北京师范大学)
  □ 姜雨佳
  现实图景:问题引入
  当下,生成式人工智能(AIGC)参与犯罪的案例屡见不鲜。据统计,2020至2023年间,我国公安部破获通过“AI换脸”技术侵犯公民个人信息犯罪案件79起。仅2022年一年,由AI驱动的深度伪造技术就引发了大量欺诈案件,造成美国消费者损失超26亿美元。
  近年来,我国也日益重视对人工智能技术的法律规制。2023年以来,《生成式人工智能服务管理暂行办法》《人工智能示范法(2.0)》等规范性文件陆续出台。然而,我国人工智能安全法律法规体系尚未建立,法律治理主要依靠部门规章或其他规范性文件以“小步快进”的方式进行立法,对AIGC参与犯罪的规制和追责路径尚不明确。因此,总结AIGC参与犯罪的特征、构建明确的AIGC参与犯罪的刑事规制路径,不仅是实践的需要,更是推进中国特色社会主义法治进程的必然要求。
  综上,本文以“生成式人工智能”“参与犯罪”为关键词,检索出2018-2024年间AIGC参与犯罪典型案例共计53件,结合案例分析AIGC参与犯罪的特征,对当下规制路径进行反思,并为人工智能时代共同犯罪理论中的技术参与归责问题找寻妥当的路径。
  诊断图景:案例分析
  通过对典型案例的分析,实践中AIGC参与犯罪的具体形式划分为作为被动工具参与和主动参与两种类型。两种类型中,AIGC自主性不同,对犯罪行为产生和犯罪结果实现的加功作用不同,开发者、使用者等不同主体对犯罪因果力作用也不同。
  第一类为作为工具的被动参与(assistance),即AIGC被使用者操控,作为技术工具帮助实施犯罪。这一形态下AIGC不具备自主判断能力,其行为完全依赖用户输入指令,且AIGC对犯罪行为的加功作用有限。实践中,AIGC大多作为工具,通过生成虚假或错误信息或音视频、伪造身份、生成病毒、操纵舆论等手段,实施欺诈、勒索、侵犯信息安全或扰乱社会秩序等犯罪,如使用者通过AIGC生成明星虚假代言视频实施诈骗等。这也是当下生成式人工智能参与犯罪的主要形式。本文统计的53起案件中,被动参与占40起,其中制作虚假视频15起、谣言传播8起、系统侵入4起、诈骗勒索13起。
  二是主动参与(incitement),即AIGC自身存在技术缺陷等,在无外界操控的情况下自主生成虚假、错误信息或者不当内容造成严重后果,甚至主动诱导用户实施违法犯罪行为。此情况下,AIGC产出内容超出使用者的控制范围,表现出一定的创造性或诱导性,存在被滥用的风险,且AIGC对犯罪行为的加功作用显著,可能独立产生刑法效果。本文检索的53份案例中,AIGC主动参与犯罪共13起。其中自主提供错误决策与不当信息的8起;主动教唆用户违法犯罪的5起。
  理论图景:现行AIGC参与犯罪归责路径反思
  虽然实践中的AIGC参与犯罪,因主体控制力、算法自主性、对犯罪加工作用等因素展现出显著类型化差异,但目前司法实践并未对这两种情形进行明确区分,而是将AIGC一概视为工具。即使在主动参与的情况下AIGC表现出更强的自主性,如某些聊天机器人在交互过程中主动提供犯罪方法或作出错误决策,也仅追究使用者的刑事责任。
  这一现象的产生,本质上反映了现行刑法理论中技术工具论与算法中立的观点,即以“纯粹工具化”思维界定犯罪行为评价过程中存在的其他事物,将其他事物视为辅助人类或被人类支配的对象。而现实中并非如此,开发者掌握算法设计与数据选择等关键环节,具备高度技术控制力,将其纳入归责范围,是应对AIGC技术风险的必然路径。
  此外,政策鼓励AIGC发展、倾向放宽对开发者的惩罚门槛也是此结果产生的因素之一。近年来,世界各主要国家纷纷将人工智能发展置于国家发展的战略层面。面对新型人工智能产品,如果过于严苛对待,可能导致技术的萎缩,不利于科技产品在国际上的竞争。例如我国在人工智能治理方面采取包容审慎和分类分级监管的原则,鼓励开发者在合规的前提下进行技术创新,体现了鼓励科技创新的政策导向。
  未来图景:AIGC参与犯罪归责方式优化
  随着AIGC技术不断发展、自主性不断提高,不区分AIGC犯罪参与形式、以“纯粹工具化”思维界定AIGC犯罪的理论体系和避免过重合规负担的政策导向难以适应多样频发的AIGC犯罪参与治理。因此,应基于AIGC不同的犯罪参与形式,坚持差别化规制路径,合理确定开发者责任,形成协同治理机制,以实现技术创新与风险防控的平衡。
  首先,将开发者纳入责任规制范畴是应对AIGC技术风险的必然选择。作为技术的设计者和控制者,开发者通过算法参数设定、训练数据选择等功能配置,直接决定了AIGC的行为模式和输出结果,并对其功能进行监控。这种技术主导地位决定了开发者负有确保AIGC合规运行的法定义务。
  其次,应针对AIGC参与犯罪的不同类型,设定差异化责任边界。对于被动参与,应以使用者为主要责任人,并要求开发者履行合理注意义务,通过设置警示机制、设计限制指令等方式防止用户滥用;而主动参与情形下,开发者应作为主要责任人,承担更高的风险防范责任,要求其在发现诱导犯罪等违法内容时及时采取处置措施,否则需承担相应刑事责任。
  再次,应从研发与使用两个维度构建系统化责任机制,推动刑事责任归属的合理界分。在研发阶段,应明确“禁止性风险”边界,若开发者使用违法数据训练算法,或在明知算法存在失控风险的情况下仍将产品投入市场,应依法认定其为过失甚至间接故意,在犯罪发生后需承担相应刑事责任。在使用阶段,应合理划定“被允许风险”,即开发者在已履行合理注意义务、采取防滥用措施后,若个别用户仍恶意使用AIGC实施犯罪,开发者可以免责,以鼓励技术创新、避免责任泛化。同时,应建立健全技术评估与审查机制,确保AIGC运行的可控性和可追责性。
  最后,应完善立法,构建兼顾安全与发展的AIGC监管框架。通过细化立法领域、拓宽管辖范围、提高法律效力层级等方式划定原则底线。立法过程中,应合理把握规制的程度和范围,避免随意增设新罪、重复立法。同时应充分认识到刑法的单一性和有限性,注重民法、行政法等前置法的规范作用,建立全面的AIGC的监管体系。
      (作者单位:北京师范大学)