提防AI大模型的潜藏风险
2024-02-20
作者:
来源:
大众日报

![]() |
|
□ 董文 于雨童
人工智能革命如火如荼,人类的认知、行为模式、生活方式正在被颠覆性地改写与重塑。去年,“ChatGPT”“文心一言”等大模型横空出世,让人工智能发展引来广泛关注。春节期间,科技公司OpenAI发布首个视频生成模型Sora,再次引来业界的狂热追捧。Sora可以根据简短的文字提示,将其转化为长达一分钟的高清视频,逼真的效果让人惊呼“现实,不存在了”。
与传统人工智能相比,人工智能大模型体现出参数规模更大、表达能力更强、理解与生成能力更优、算力需求更高的特点。与此同时,大模型的快速发展也引来了对其潜藏风险的担忧。
首先,人工智能大模型存在泄露个人信息、敏感数据的风险。大模型的运行需要大量的数据,这些数据中可能包含用户的个人信息、公司的商业机密甚至政府的敏感数据等。这些个人信息、敏感数据一旦遭到泄露并被恶意利用,将会严重威胁公共安全。
其次,人工智能大模型潜藏伦理风险。一方面,人类天然的“科技崇拜”促使其容易对大模型的运算结果产生高度信赖,如果大模型的算法和数据存在问题,就会产生错误的判断和推荐,形成“错误权威”,从而误导大众。例如医疗、法律等专业性质的错误信息就可能严重误导用户,并对其合法权益造成损害。另一方面,如果大模型的学习数据中存在不良的社会导向,比如基于种族、民族、信仰、国别、地域、性别、年龄、职业等因素产生偏见与歧视,那么在这些数据的学习下生产的内容,可能使某些群体处于不公平的境遇。
最后,大模型的不当利用更易产生违法犯罪。大模型超强的生成能力以及基于大量数据训练而具备的“类人”输出和交互能力,使其能够以低成本方式大规模制造更加逼真、更具欺骗性的虚假信息,例如,可以大量制作更具说服力的网络钓鱼电子邮件,使网络用户在不知不觉中受到引导,深陷感情类、财产类诈骗的陷阱。对此若不进行有效规制,对经济社会发展将会造成严重的负面影响。
当下,数据已然成为国家发展的重要核心资产,能否在对数据进行有效利用和深度挖掘的同时兼顾数据安全保护,将关系我国在新一轮的科技竞争中能否抢占制高点。而依靠海量数据运行的人工智能大模型,数据利用与数据安全的矛盾将更为突出,亟须引导其在法律框架下实现科技向善。目前,人工智能法草案已被列入国务院立法工作计划,预备提请全国人大常委会审议。《生成式人工智能服务管理暂行办法》也于去年发布,这是我国首次针对生成式人工智能产业发布的规范性文件。对于大模型的风险管控须依靠大模型价值链各方主体的共同努力,即大模型的提供者、应用者、监管者须形成合力,使大模型更有用、更可信、更安全。
第一,大模型提供者须提供正当、脱敏的数据。大模型是利用大数据训练而来,在数据利用的过程中应秉承安全利用数据的基本理念。考虑到喂养给大模型的数据将会决定大模型生成的内容,因此大模型提供者在喂养数据时应确保数据的来源和内容符合正当性,确保体现公序良俗,与社会主义核心价值观相契合。对此,大模型提供者应建立信息源管理规范,将清洗训练数据的规则和流程制度化。尤其要审慎使用来自境外的训练数据,对其中的价值取向和意识形态内容采取更加严格的清洗措施。另外也应采取加密、脱敏等安全措施,确保数据在传输和处理过程中的安全性。比如,采用加密技术对模型参数和推理结果进行加密保护,采用差分隐私等技术,防止模型被攻击者推断出敏感信息。
第二,大模型应用者须确保大模型用途合法。大模型主要分为开源和非开源两种。在开源的情况下,大模型提供者会向用户公开大模型的参数和源代码,使其能够了解大模型的工作原理及局限性的信息,甚至可以直接检查源代码和参数并根据开源许可进行修改和适配。基于此,大模型的安全利用不仅取决于提供者,也与应用者的使用目的、方式紧密相关。因此,既需要建立大模型提供者与应用者之间的风险沟通与信息共享机制,也需要加强对人工智能工具的使用培训,增强应用者的法治意识,避免将大模型沦为违法犯罪的高科技武器。
第三,大模型监管者须开展数据安全风险评估。《生成式人工智能服务管理暂行办法》第三条要求“对生成式人工智能服务实行包容审慎和分类分级监管”。针对大模型的安全问题,目前已有专家提出建立大模型安全分类体系,并从系统和模型层面构建可信的模型安全框架。有专家从风险的具体内容加以划分,分为政治敏感、违法犯罪、身体健康、心理健康、财产隐私、歧视偏见、辱骂仇恨、伦理道德等八个场景;有专家从风险的程度进行分类,将风险分为不可接受风险、高风险、中风险和低风险等四个等级。作为大模型的监管者,政府主管部门应尽快明确人工智能大模型的风险分类标准,对大模型建立安全分类体系,匹配相应的监管方式。还应尝试建立大模型测试评估中心,鼓励大模型提供者依托中心开展相关测试评估,并支持相关主体主导或参与国家大模型相关标准制订。
第四,要确立贯穿大模型全生命周期的透明度机制。为有效应对大模型的新型风险,大模型价值链的各方主体既需要直面大模型的不可解释性,努力理解大模型训练部署和运行输出的原理,也需要进行充分的风险沟通和信息共享,形成数据安全保护的新范式。
首先,对于提供者而言,在大模型能够被理解与解释的范围内,须积极履行社会责任,负责任地处理获取的数据,采取公开透明的方式与应用者进行沟通与交流。在技术允许的前提下,提供者应尽可能向应用者公开大模型的训练数据和算法,使大模型的运行过程和结果透明化,让大模型的运作机制更容易被大多数人了解。同时,提供者还应遵守流程报备责任,通过报备的方式,使大模型置于主管部门的监督管理之下,也便于在发生违法违规行为时及时进行处置。其次,对于应用者而言,其有权对可能产生有害结果的人工智能工具提出异议,获得大模型提供者的合理解释。在了解人工智能大模型的运行情况和可能风险后,有权选择继续使用或者退出系统。在应用者选择继续使用大模型后,其输入信息和使用记录应当获得大模型提供者的依法保护,以避免其中包含的个人信息、敏感数据等作为大模型进一步迭代的训练数据而被泄露。再次,对于监管者而言,主管部门须依据职责对人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。对于未在互联网公开或权利人明确禁用的信息源,及时督促提供者从大模型数据库中剔除,确保使用的正当性。此外,还应完善救济途径,在大模型发布后,以提供补丁网站的方式,便利相关权利人提交不予授权的声明,并及时删除不予授权的信息源,以避免和解决使用过程中的权属争议。 (作者单位:山东财经大学)
人工智能革命如火如荼,人类的认知、行为模式、生活方式正在被颠覆性地改写与重塑。去年,“ChatGPT”“文心一言”等大模型横空出世,让人工智能发展引来广泛关注。春节期间,科技公司OpenAI发布首个视频生成模型Sora,再次引来业界的狂热追捧。Sora可以根据简短的文字提示,将其转化为长达一分钟的高清视频,逼真的效果让人惊呼“现实,不存在了”。
与传统人工智能相比,人工智能大模型体现出参数规模更大、表达能力更强、理解与生成能力更优、算力需求更高的特点。与此同时,大模型的快速发展也引来了对其潜藏风险的担忧。
首先,人工智能大模型存在泄露个人信息、敏感数据的风险。大模型的运行需要大量的数据,这些数据中可能包含用户的个人信息、公司的商业机密甚至政府的敏感数据等。这些个人信息、敏感数据一旦遭到泄露并被恶意利用,将会严重威胁公共安全。
其次,人工智能大模型潜藏伦理风险。一方面,人类天然的“科技崇拜”促使其容易对大模型的运算结果产生高度信赖,如果大模型的算法和数据存在问题,就会产生错误的判断和推荐,形成“错误权威”,从而误导大众。例如医疗、法律等专业性质的错误信息就可能严重误导用户,并对其合法权益造成损害。另一方面,如果大模型的学习数据中存在不良的社会导向,比如基于种族、民族、信仰、国别、地域、性别、年龄、职业等因素产生偏见与歧视,那么在这些数据的学习下生产的内容,可能使某些群体处于不公平的境遇。
最后,大模型的不当利用更易产生违法犯罪。大模型超强的生成能力以及基于大量数据训练而具备的“类人”输出和交互能力,使其能够以低成本方式大规模制造更加逼真、更具欺骗性的虚假信息,例如,可以大量制作更具说服力的网络钓鱼电子邮件,使网络用户在不知不觉中受到引导,深陷感情类、财产类诈骗的陷阱。对此若不进行有效规制,对经济社会发展将会造成严重的负面影响。
当下,数据已然成为国家发展的重要核心资产,能否在对数据进行有效利用和深度挖掘的同时兼顾数据安全保护,将关系我国在新一轮的科技竞争中能否抢占制高点。而依靠海量数据运行的人工智能大模型,数据利用与数据安全的矛盾将更为突出,亟须引导其在法律框架下实现科技向善。目前,人工智能法草案已被列入国务院立法工作计划,预备提请全国人大常委会审议。《生成式人工智能服务管理暂行办法》也于去年发布,这是我国首次针对生成式人工智能产业发布的规范性文件。对于大模型的风险管控须依靠大模型价值链各方主体的共同努力,即大模型的提供者、应用者、监管者须形成合力,使大模型更有用、更可信、更安全。
第一,大模型提供者须提供正当、脱敏的数据。大模型是利用大数据训练而来,在数据利用的过程中应秉承安全利用数据的基本理念。考虑到喂养给大模型的数据将会决定大模型生成的内容,因此大模型提供者在喂养数据时应确保数据的来源和内容符合正当性,确保体现公序良俗,与社会主义核心价值观相契合。对此,大模型提供者应建立信息源管理规范,将清洗训练数据的规则和流程制度化。尤其要审慎使用来自境外的训练数据,对其中的价值取向和意识形态内容采取更加严格的清洗措施。另外也应采取加密、脱敏等安全措施,确保数据在传输和处理过程中的安全性。比如,采用加密技术对模型参数和推理结果进行加密保护,采用差分隐私等技术,防止模型被攻击者推断出敏感信息。
第二,大模型应用者须确保大模型用途合法。大模型主要分为开源和非开源两种。在开源的情况下,大模型提供者会向用户公开大模型的参数和源代码,使其能够了解大模型的工作原理及局限性的信息,甚至可以直接检查源代码和参数并根据开源许可进行修改和适配。基于此,大模型的安全利用不仅取决于提供者,也与应用者的使用目的、方式紧密相关。因此,既需要建立大模型提供者与应用者之间的风险沟通与信息共享机制,也需要加强对人工智能工具的使用培训,增强应用者的法治意识,避免将大模型沦为违法犯罪的高科技武器。
第三,大模型监管者须开展数据安全风险评估。《生成式人工智能服务管理暂行办法》第三条要求“对生成式人工智能服务实行包容审慎和分类分级监管”。针对大模型的安全问题,目前已有专家提出建立大模型安全分类体系,并从系统和模型层面构建可信的模型安全框架。有专家从风险的具体内容加以划分,分为政治敏感、违法犯罪、身体健康、心理健康、财产隐私、歧视偏见、辱骂仇恨、伦理道德等八个场景;有专家从风险的程度进行分类,将风险分为不可接受风险、高风险、中风险和低风险等四个等级。作为大模型的监管者,政府主管部门应尽快明确人工智能大模型的风险分类标准,对大模型建立安全分类体系,匹配相应的监管方式。还应尝试建立大模型测试评估中心,鼓励大模型提供者依托中心开展相关测试评估,并支持相关主体主导或参与国家大模型相关标准制订。
第四,要确立贯穿大模型全生命周期的透明度机制。为有效应对大模型的新型风险,大模型价值链的各方主体既需要直面大模型的不可解释性,努力理解大模型训练部署和运行输出的原理,也需要进行充分的风险沟通和信息共享,形成数据安全保护的新范式。
首先,对于提供者而言,在大模型能够被理解与解释的范围内,须积极履行社会责任,负责任地处理获取的数据,采取公开透明的方式与应用者进行沟通与交流。在技术允许的前提下,提供者应尽可能向应用者公开大模型的训练数据和算法,使大模型的运行过程和结果透明化,让大模型的运作机制更容易被大多数人了解。同时,提供者还应遵守流程报备责任,通过报备的方式,使大模型置于主管部门的监督管理之下,也便于在发生违法违规行为时及时进行处置。其次,对于应用者而言,其有权对可能产生有害结果的人工智能工具提出异议,获得大模型提供者的合理解释。在了解人工智能大模型的运行情况和可能风险后,有权选择继续使用或者退出系统。在应用者选择继续使用大模型后,其输入信息和使用记录应当获得大模型提供者的依法保护,以避免其中包含的个人信息、敏感数据等作为大模型进一步迭代的训练数据而被泄露。再次,对于监管者而言,主管部门须依据职责对人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。对于未在互联网公开或权利人明确禁用的信息源,及时督促提供者从大模型数据库中剔除,确保使用的正当性。此外,还应完善救济途径,在大模型发布后,以提供补丁网站的方式,便利相关权利人提交不予授权的声明,并及时删除不予授权的信息源,以避免和解决使用过程中的权属争议。 (作者单位:山东财经大学)