习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远影响。”生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。在海量数据与强大算力支撑下,听得懂、说得出、能互动的生成式人工智能快速迭代升级,呈现出良好互动性、高度通用性、智能生成性等特征,并正与各行各业形成更加刚性、高频、泛在、深度的联结,也导致其潜在风险更多更真实。党的二十届三中全会《决定》科学把握人工智能发展规律和特点,提出“建立人工智能安全监管制度”“完善生成式人工智能发展和管理机制”,体现了更好统筹发展和安全的客观需要,为推动人工智能领域的技术进步、产业发展与安全保障指明前进方向。
生成式人工智能在技术运行上可分为三个阶段,即前置性学习训练及人工标注辅助算法升级的准备阶段,输入数据进行算法处理得出生成物的运算阶段,生成物进入社会加以运用的生成阶段。我们要深入分析生成式人工智能的运行机理,把握各阶段安全风险形成与发展的特征,运用法治手段加强系统性治理,确保生成式人工智能所蕴含的巨大力量始终在法治轨道上发挥作用。
在生成式人工智能的准备阶段,数据安全风险易发多发、较为突出。生成式人工智能通过数据训练、数据处理分析来提炼信息、预测趋势。这就必须对数据进行适当分类,确立不同类型数据的利用模式和保护方式,以妥善应对相关数据安全风险,避免数据违规利用或者不当泄露,产生侵权方面的纠纷。比如,在政务处理流程中形成的政务数据是数字政府的核心要素。生成式人工智能为了得出相对准确的结论,不可避免地要收集分析政务数据。应当明确生成式人工智能获取和利用政务数据的法律规则,既满足利用政务数据服务社会的需求,有力支持人工智能政务服务大模型开发、训练和应用,提高公共服务和社会治理智能化水平;又规范其加工方式,避免利用政务数据得出的成果侵害个人权益、破坏社会公共秩序。对于个人数据而言,生成式人工智能通过组合分析挖掘其潜在价值,其对个人数据的收集利用及其成果可能对公民权利造成侵害。实践中,生成式人工智能倾向于过度收集个人数据以提升结论准确性,比如,通过分析医疗健康数据来挖掘个人行踪、预测个人生活轨迹。为此,必须坚持依法收集,按照技术所需的最小范围收集个人数据,设置合理的数据处理深度,避免过度挖掘潜在信息。综上,应将分类分级的数据安全监管要求嵌入生成式人工智能的准备阶段,避免数据安全风险演化为具体的法益损害后果。
在生成式人工智能的运算阶段,内生于人工智能大模型的算法偏见风险值得警惕。生成式人工智能对于数据的分析和处理主要通过算法模型。不同于传统算法模型,生成式人工智能在进行机器学习的同时,还会以大量的人工标注来校正机器学习的结论,推动人工智能进化。但“机器学习+人工标注”作为算法技术内核,也会使人类的意志与偏好所产生的影响比单纯的机器学习更大。个人偏好的影响叠加在算法模型本身的偏见之上,将导致算法偏见的负面效应倍增,算法偏见的产生更加难以追溯和预防。防范化解算法偏见风险,应根据算法偏见的产生原理与产生场域进行针对性治理。要将法律规范的要求深度嵌入生成式人工智能的算法模型之中,推动技术向善,消除算法偏见,确保合理利用生成式人工智能算法并分配算力资源。基于技管结合理念,加强对算法的全周期安全监管,将法律规范的要求落实到生成式人工智能运行的全流程之中。在设置算法之初就要遵循相关法律规则与技术标准,落实“机器学习+人工标注”的规范要求,审查存在风险的算法模块,更好发现生成式人工智能算法模型中的技术风险;当发现先天性算法偏见时,依据法律要求从生成式人工智能的算法内部进行纠正,确保修改后的算法能正常运行;事后出现问题时,对人工智能算法进行溯源治理,实现精准归责并加以纠正,推动完善生成式人工智能的算法监管标准,填补事前预防审查的不足,以技术手段与法律手段并行做到发展与管理并重。
在生成式人工智能的生成阶段,存在着与生成物相关的知识产权风险、生成物滥用风险等多种风险。由于生成式人工智能的智能化程度很高,可以实现内容自动化编纂、智能化润色加工、多模态转换以及创造性生成,直接改变了内容的生产方式与供给模式,相较于以往的人工智能系统产生了颠覆性变化,由此引发了生成式人工智能的生成物知识产权归属、知识产权保护等问题。有的人认为生成式人工智能生成物是数据算法的结论,其本质上是计算与模仿,而非智力劳动,无法成为知识产权的客体。反对者则认为生成式人工智能模拟人脑神经网络的构造来获取与输出数据,通过卷积神经网络控制自身的设计与制造,其具有独创性与创新性的生成物应当受知识产权法保护。同时,生成式人工智能还增加了知识产权纠纷风险和保护难度,一些生成物可能含有侵犯他人知识产权的内容,或者经过加工等手段被包装成个人拥有完全知识产权的原创作品,引发相关知识产权争议。为及时化解相关问题,应对生成式人工智能的技术模式、技术原理按照知识产权法的标准开展实质分析,如果技术上需要人类意志介入,使生成物能够产生独创性与创新性,应赋予知识产权并明确其归属,强化生成式人工智能领域知识产权的系统性保护;同时要合理确定对生成物知识产权保护的范围,避免保护范围无限扩张,妨碍生成式人工智能的推广运用和技术发展。还要加强对生成物滥用风险的治理。比如,要求作品清楚标识生成式人工智能在作者创作中发挥作用的情况,加强对可能涉及违法犯罪的深度伪造、AI换脸等生成物的精准化、常态化监管,等等。
生成式人工智能在社会应用中产生的扩散影响还有很多,除了上述风险还有很多其他类型的风险,比如加剧信息不对称、扩大数字鸿沟、损害数字弱势群体的利益等。要根据实际情况作出应对,尽量降低新技术给社会发展带来的不良冲击。
作者:刘艳红(中国政法大学刑事司法学院教授)
本文链接:https://www.aisixiang.com/data/156261.html