□ 关伟杰
摘要:以ChatGPT为代表的生成式人工智能引发的虚假信息泛滥,加强网络信息内容治理成为大势所趋,通过“发展导向型”立法采取有效可行举措鼓励生成式人工智能创新发展,加强内容审核已成为生成式人工智能信息内容平台的刚性需求,需要进行价值考量与制度取舍,嵌入人工智能造成歧视、“风险积聚效应”造成市场秩序混乱和责任配置不明晰等现实问题不断涌现。有鉴于生成式人工智能的类通用属性,实现促进与限制禁止相统一,运用“信息规制”手段,一是引入第三方主体的评估审核,二是建立网络信息分类分级制度,三是创建多责任主体的内容监管机制。
关键词:生成式人工智能;制度安排;信息治理
一、问题的提出
信息革命的迅猛发展,人工智能的重要性不言而喻。由于算法运用、计算能力和数据成本等问题,人工智能的不同发展阶段受到不同程度的影响,而随着上述问题的解决,人工智能的研究和应用又开启了新阶段。2022年底,ChatGPT“横空出世”,再次让全球学者的目光关注到了生成式人工智能,随着网络空间的虚假信息泛滥、隐私侵权不断、数据安全形势严峻,人工智能的潜在威胁受到关注,在特殊的时代背景下,各界要求加强网络信息内容治理的呼声也愈加高涨,有学者提出“通过顶层设计推进基础性人工智能立法”,也有学者提出了“治理型监管范式”。有学者指出,“生成式人工智能大模型正在成为人类信息内容生产与传播的集合体。”意味着大语言模型在人类日常生活中的应用潜能不断增强,但由于技术本身存在的局限性,个人信息泄露、商业秘密泄露、数据安全风险、算法歧视等应用风险也层出不穷,劣质信息泛滥和通用性伦理风险带来的新问题新挑战急需解决。国家在努力尝试打造并健全网络综合治理体系,营造清朗的网络空间。中华人民共和国国家互联网信息办公室在2019年通过了《网络信息内容生态治理规定》,强调多主体共同参与网络信息内容的同时,对算法推荐、深度伪造、流量造假、网络暴力等热点问题进行回应,又于2022年修订了《互联网跟帖评论服务管理规定》,对互联网行使言论自由进行跟帖和评论进行了一定的规制,2023年7月公布的《生成式人工智能服务管理暂行办法》初衷是预防和解决技术风险,更多为人工智能技术治理规则体系化进行制度积累,坚持发展和安全并重,通过有效可行举措鼓励生成式人工智能创新发展,充分体现了“发展导向型”立法趋势。
面对国家日趋严格的监管要求,加强内容审核已成为生成式人工智能信息内容平台的刚性需求。为降低审核成本,提高审核质量和审核效率,以中小型平台为典型代表的信息内容平台,纷纷选择内容审核外包服务。随着内容审核需求的日益增长,传媒企业和人工智能技术公司凭借其先进的智能内容审核技术和优质审核资源纷纷进入内容审核外包服务行业,作为第三方内容审核机构提供内容审核服务。基于“技术—制度”的内在关联性,强调机制构建对促进人工智能发展的重要性,围绕效率与公平、自由与秩序、安全与发展等重要价值,以经济法价值衡量与引领标准,不断完善生成式人工智能的政策和法律体系,促进构建审核机制以优化信息治理环境。为此,本文认为,预训练大模型带动了人工智能技术的迭代发展,生成式人工智能的信息内容治理是多方聚焦商讨之重要话题,以往制度过于倚重技术政策,法律供给明显不足,以预训练大模型作为技术基础,从服务提供者入手进行审核治理无法直接有效生成式人工智能技术提供者,原有算法治理框架无法对生成式人工智能预训练大模型海量的训练数据和数以千亿的参数设置进行有效审核,未来应当明确人工智能信息内容的审核重点,尽快建构并完善机制,从而为人工智能技术和产业的发展提供更大空间。
二、生成式人工智能信息内容审核的必要性:价值考量与制度取舍
工业革命的多次变革推动着社会与经济发展,与此同时带来大量的社会问题。有学者提出“第四次工业革命”是以人工智能技术和产业发展为核心内容,对诸多领域会产生影响。人工智能的飞速发展会大大提升经济效率,减少对资源的消耗,与此同时,对网络信息内容治理的安全性、公平性和秩序性产生负面影响,现行网络信息内容治理模式不足以解决网络虚拟空间的表达失序的现实问题。只有妥善把握其带来的变革和价值冲突,并在制度安排上作出有效取舍,才能通过“适度”的法律规制,促进网络空间的健康发展。
其实,网络信息内容治理需要制度规制,与国家对效率、公平、自由、安全、秩序等重要价值的考量直接相关。效率价值是经济法规制必须关注的,由于经济法是直击个体利益与社会公益之间的矛盾,延伸至效率与公平之间的矛盾,因而效率价值被关注是应有之义。基于经济法自身的特殊性,信息治理不能只考量效率价值,还要衡量公平价值,人类智能与人工智能、自然人与机器人的“差异性”影响秩序价值,导致网络空间秩序混乱等问题。例如,在人工智能大语言模型生成内容之时,个人信息被广泛收集,用户提问时,敏感个人信息暴露的可能性极大。但根据OpenAI的说明,用户只能删除个人账户,无法删除敏感个人信息。3月20日,ChatGPT的开源库曾出现漏洞,使部分用户能看到其他用户的对话内容、姓名、电子邮件地址甚至支付信息。OpenAI不得不在官网提示:“请不要在谈话中分享任何敏感信息。”尤其需要第三方主体审核网络信息内容。
传统的自由至上主义者极力主张“最小政府”和“个人利益”的严格保障,此观点表明我们可以在尊重他人同等权利的条件下,利用身边的事物行使自己的权利,但现实若按照这个逻辑,“公地悲剧”极易被引发。功利主义者为维护公共利益成为网络空间内容治理目标提供理论依据,边沁认为,“道德的最高原则就是使幸福最大化,使快乐总体上超过痛苦。如果当事人是一个社会,那么功利原理就是关注社会的幸福,而政府的职责就是通过避苦求乐来增进社会的幸福,并以最大多数的最大幸福为判断是非的标准。”整体而言,功利主义的观点有利于限定网络空间表达权的边界,但这类目的性思维模式对于人性本身的“内在自由”,亦或是“免除他人强制”能否给予合理解释还未可知,因此个人利益和公共利益之间的冲突在网络空间里面显得尤为突出。
此外,人工智能可能引发“安全”等多种问题,规制之时要特别关注安全价值,例如,生成式人工智能对网络信息内容之“用益”,可能会形成针对特定个体的虚假图片、文本、音视频信息等使某人“实施”实际生活当中没有实施的行为,对自然人的名誉权保护带来极大的挑战。伴随着越来越多的产业接入人工智能生成式语言模式,信息泄露的风险日益突出,给企业、行业带来巨大的经济和声誉损失。“即使是片段性或零碎的信息,人工智能也可能将其与其他数据结合在一起进行挖掘分析,从而推断出关系国家安全、公共安全、个人和组织合法权益的情报信息。”甚至有学者提出,通过利用生成式人工智能创建多态恶意软件,绕过OpenAI建立的内容策略过滤器,创建恶意代码,由此犯罪分子发现专业知识门槛降低、用户目的模糊等产业漏洞,利用人工智能进行网络犯罪。
另外,基于人工智能对网络空间秩序的影响,第三方主体对于秩序价值应当予以专门性规制,如前所述,效率与秩序价值是互为彼此,密不可分的,目前我国网络信息内容治理采用的是“政府—平台—用户”基本治理架构,平台会利用人工智能通过算法对海量信息进行处理,其中算法无法对信息内容的真实性进行核实,加之算法固有的社会偏见和价值判断,看似准确本质错误的“毒性”内容易生成,长此以往进行传播将对产业兴衰、人员流动、市场调整会有极大影响,应对失当,就可能危及经济秩序,甚至引发社会动荡。
可见,在人工智能产业不断创新发展的背景下,需要考虑人工智能对技术创新、产业发展对网络信息内容的影响,并基于相关价值考量予以。制度回应,其中兼具其他各类价值基础上作出的经济法基础制度显得尤为重要。如美国曾推出《国家人工智能研究与发展战略计划》以支持人工智能产业的发展。这些产业发展规划或计划,涉及产业法或计划法上的安排,包含支持人工智能产业发展的多种经济法手段,集中体现了经济法作为“发展促进法”的功能。
自2015年国务院出台的《关于积极推动“互联网+”行动的指导意见》首次提出“培育发展人工智能产业”以来,2016年通过的《“十三五”规划纲要》和《“十三五”国家科技创新规划》就先后强调要“发展人工智能产业”,2017年国务院不仅首次将人工智能写入政府工作报告,还正式公布了《新一代人工智能发展规划》。截至2024年4月26日,根据十四届全国人大常委会第九次会议公布的“现行有效法律目录”,按法律部门分类,个人信息保护法、数据安全法、网络安全法、电子商务法都属于经济法部门,立法目的是基于“经济规制”与“信息规制”的协调一致性,以解决数据信息治理问题。早在2001年我国确立七大部门法之前,学界已提出信息法可以成为一个独立部门法。有学者提出,伴随我国信息立法大量出台,基于业已形成的信息法治体系和相关部门法理论,完全可以将信息法确立为一个独立部门法。
如前所述,经济社会的信息化是国家现代化的重要组成部分,基于“经济规制”与“信息规制”之间的差异性,需要进一步关注信息保护促进与限制禁止相统一之“规制性”特点。
产业的转业升级促进网络化、数字化、智能化,经济社会的高质量发展将直接推动现代化经济体系的构建和国家整体现代化目标的实现,在生成式人工智能的发展前景中,以ChatGPT为代表的人工智能技术产生了不少新型社会治理风险,新型科技发展当中的利弊得失理应得到权衡,一方面,人工智能生成内容(AI-Generated Content,AIGC)作为互联网时代下的新型创作模式,将全面驱动内容生产方式的变革,“平台”模式下的科研范式可以承载海量计算,在认知层面的人机对齐操作逐渐成为必然,为促进产业赋能提升垂直行业应用效率;另一方面,对其引发的数据滥用和数据泄露等各类风险或问题,通过不断完善技术和制度,避免“技术规制法”的逻辑错误,化解技术风险、经济风险、社会风险和法律风险,构建兼具保障相关主体的数据安全和数据权益,更兼顾安全与发展价值,促进数据要素的有效配置和数据资源的开发利用的好制度。
基于前述分析,可以对生成式人工智能信息内容审核机制构建进行适当取舍:一方面,对于生成式人工智能带给网络信息内容的积极效应,应当鼓励与促进,基于来自市场的有效信息,发现技术运行中存在的诸多问题,提升治理的精准度和规制的针对性,从而更好地处理政府与平台、平台与用户的关系;另一方面,基于网络信息内容安全风险的复杂性、对抗性和隐蔽性不断加强和现行治理需求不断提高之内生张力扩充的背景下,审核机制构建是一种全新的社会制度,时刻关注和强调以“内容聚集样貌”为中心的网络信息内容生态安全才是未来治理之重点。
三、生成式人工智能信息内容审核机制构建的现实困境
技术创新是国家兴盛之根本,坚持法治、科学监管是国家兴盛的制度保障,20世纪后半期以来,“管理型”立法与“治理型”立法的分野日益明确。基于网络治理信息内容治理的政府规制和平台规制等传统视角研究,创新性提出吸纳外部社会力量等主体参与治理,实践当中也已出现信息内容安全风险审核评估业务外包给专业内容风控机构等新趋势,但目前人工智能依旧属于产业发展初期,传统的法律体系是否适应以待考察,加之可参考之域外成熟经验不足,网络空间信息内容审核机制之实践适用困境需要厘清,以探寻立足于兼顾促进产业健康发展和防范未来风险的双重目标之下的完善路径。
(一)嵌入人工智能造成歧视
生成式人工智能的业态可以分成三个层次,以基础模型为核心技术支持,企业通过平台进行深度学习进行垂直细分领域形成个性化定制,从而进入专业模型层,最终服务应用于搜索引擎、智能生成答案直接与用户对接。近年来,人工智能对信息进行歧视和偏见之于社会经济秩序的影响愈加明显,加之在国家治理变迁和互联网技术赋权背景下形成的新型平台权力逐渐加扩张,相关信息内容审核与规制机制建构迫在眉睫。
基于法律法规政策对平台权力进行粗糙式赋权现状,目前平台权力定性和法律地位尚不明晰,网络平台对信息内容的判定和处置标准上具有较强的主观性,在自我规制时的自由裁量空间相对较大,网络平台审核信息的权力实施边界或限度问题的关注较为不足。例如网络安全法第四十七条之规定不仅体现了法律赋权的特点,而且深层次反映了法律对网络平台“加强管理”的要求,网络平台的权力扩张具有一定的“法定化”色彩。
国务院《新一代人工智能发展规划》以及国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部与广电总局《生成式人工智能服务管理暂行办法》、全国信息安全标准化技术委员会《生成式人工智能服务安全基本要求》等政策文件正在积极治理人工智能对信息的歧视问题。
生成式人工智能歧视的动力源泉主要来自于两方面,一方面是无意识状态下的内隐偏见歧视,另一方面是基于结构不平等造就的系统性歧视。首先,社会生活存在两种通道表达,一种是直觉的启发式通道,另一种是理性的分析式通道,前者并行处理且反应加工速度较快,心理资源利用不足,反应自动化,通常只能意识到其加工结果,加工过程往往被忽视;后者串行加工,加工速度慢,大量利用心理资源,围绕规则进行可以意识加工过程和结果。经由分析系统表达的外显偏见和经由启发式系统表达的内隐偏见,展现了偏见的表达通道,外显偏见可以通过法律责任加以规制,内隐偏见则不然,往往是人类无意识下参与有意识社会信息加工处理活动,生成式人工智能系统的技术支持者之内隐偏见对信息机制危害尤甚,事实一旦启发式系统与分析系统作用方向不同,往往启发式系统会获胜,表达顺序更加占据主导地位;其次,权力关系和资源配置情况决定了歧视的影响力。分配格局重塑了社会权力划分,同时歧视与制度的结合实现了系统化歧视的质变,个人信息具备较强的识别性,数据的匿名化极难真正实现,生成式人工智能背后蕴藏着日益增长的算力,获取个人信息的成本不断下降,显著提升歧视发生的可能性。此外,“人工智能的目标需求需要被转译为具备相关性的特征,但模型性能与特征数量之间并无线性关系。”但特征选择既可以由算法完成,也可以由人类积累的经验法则,此时需要回归歧视的本质问题去考量。
(二)“风险积聚效应”造成市场秩序混乱
人工智能产业易形成“风险积聚效应”,有学者提出,人工智能之潜在风险广泛且积聚,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由,不确定性极强,系统性风险不容忽视。经济法的信息规制和内容审核机制明显难以应对以ChatGPT为代表的生成式人工智能在模型参数、模型输入和模型输出方面展现出大模型、多模态和涌现性等多方面全方位的挑战,信息用益行为失控,风险管理明显不足,运用相同思路必然难以解决传统和新兴信息问题,监管的滞后性和信息审核的实效性难以适配当下的管理需求。
2018年OpenAI推出首代预训练模型(Generative Pretrained Transformer, GPT)作为知识表示及存储基础,技术特性包含超大规模参数,基于互联网可用数据训练而形成的深度学习模型。GPT-1的参数量为1.17亿,GPT-2的参数量为15亿,GPT-3包含了1750亿超大规模参数,而GPT-4的参数量虽未披露,但多项预测显示将达100万亿。2019年公布的《网络信息内容生态治理规定》(以下简称《规定》)第十二条要求建立体现主流价值导向的推荐模型,建立健全人工干预机制,建立用户自主选择机制,进一步回应了算法推荐的相关问题,明确了算法推荐与人工编辑相结合的信息分发方式。“深度伪造(Deepfake)作为深度学习(deep learning)和伪造(fake)组合而成的新生事物,是随着生成对抗网络(GAN)等深度学习技术的发展而出现的。”深度伪造为网络平台治理带来极大挑战,虚假信息的发布将扰乱市场秩序,为此《规定》第二十三条为“深度伪造”技术划定了应用边界,为行业应用场景健康发展探索带来更多可能性。2022年开始施行的《互联网信息服务算法推荐管理规定》证明了我国人工智能治理进入到系统化层面,尤其是算法可解释性具有特殊要求。科技的飞速迭代导致模型的参数量爆炸增长,可能导致算法可解释性的降低,意味着算法透明之义务履行存在较大困难。同年颁布的《互联网信息服务深度合成管理规定》,意在强调通过技术手段对深度合成算法进行管理,对产业现状提出责任区隔的分层治理模式,仍无法有效应对大模型的治理挑战。有报告曾指出,ChatGPT依托的Transformer是深度学习模型,其在前馈神经网络中引入自注意力机制(self-attentionmechanism),是经典的黑箱算法,技术层面存在对黑箱算法解释的局限性,局部补充解释工具无法真正作为替代性解释方法,可信度一直存在争议。基于生成式人工智能在底层技术架构的复杂度无法与模型解释性需求相匹配,致使其在风险集中领域部署时会带来严重的安全威胁,在风险相对分散的场景运行过程中也可能面临模型验证困难和模型诊断缺陷等治理风险,对消费者数据权利的侵犯是人工智能产业和消费者需要亟待解决的重要问题,在多方主体进行信息审核之时既要保障经营者对信息获取的合法权利,也要时刻关注不得侵害对消费者信息权利之义务履行效果,以算法透明为内核构建而成的算法治理体系即将发生革命性变化之同时,未来之人工智能信息内容的审核机制应当对人工智能的“风险积聚效应”作出制度回应。
(三)责任配置不明晰
伴随着平台经济兴起建立的网络框架,平台一直以来是作为网络空间的核心规制对象,2021年《互联网平台落实主体责任指南(征求意见稿)》明确平台企业落实算法主体责任,责任配置问题逐渐成为数字经济治理的又一核心议题。有学者提出我国目前的监管体系是以服务提供者为核心抓手,按照“技术支持者—服务提供者—内容生产者”三类主体分别设置法律责任的规制体系。人工智能已经从计算智能、感知智能过渡到认知智能阶段。生成式人工智能分层业态突破明显,区分于原有的法律主体界分,基于前述“基础模型—专业模型—服务应用”的三个层次划分,技术变迁突破了法律的底层设定。生成式人工智能的底层通用能力直接打破了网络服务提供者和信息内容生产者二者互相独立的局面,将技术支持者与前两者相互融合,三者功能的融为一体意味着大模型既可以为企业进行技术服务,又可以通过智慧问答获取内容生成,法律定位和责任划分逐渐趋于模糊。
根据目前的立法和司法实践,平台已经需要承担公权力机关(如法院、政府)让渡的网络信息内容进行审核做出法律判断的责任。如若平台强化审核力度,将存在权力扩张和滥用之嫌疑,但平台疏于相关信息审核,怠于履行法律义务将承担相应的法律责任,但生成式人工智能的复杂性之处在于背后算法的分散化、多元化、场景化特性。其一,与传统型人工智能不同,在生成式人工智能的设计和运行环节,“算法主体责任”相关主体并不明晰,难以厘定承担主体的认定边界,大模型风险来源多源化可能存在于研发者,还可能存在于部署者甚至终端用户,即便位于产业链前端的研发者可以控制基础设施和对模型进行训练、修改和测试,但是被控制的大模型作为下游生态环境的重要组成部分,部署者直接面对信息的接受者即终端用户,存在让大模型变成高风险的极大隐患,终端用户与模型互动的过程中提供的数据和信息可能会间接影响,甚至“黑化”大模型;其二,生成式人工智能出现类人化特性愈加明显,主体优势愈发明晰,平台作为信息审核主体承担安全责任,能否通过技术对算法进行安全审查符合法律规定之义务。伴随算法趋向于主体属性,生成式人工智能具备心智理论(theory of mind)能力已经不足为奇,按照人类的意图、信念和情绪进行推断生成内容。如前者所述,人类现在所处的社会已经处于人工智能的认知智能阶段,ChatGPT以数据理解、信息认知和决策判断为核心能力,多种模态共生于载体之中,迅速逼近强人工智能,未来的挑战在于能否通过穿透算法本身要求开发者承担法律责任,审核方的责任如何适配和建构都是一大难题。
一直以来,在审核机制的建构上,审核方的主管过错是探讨责任的主要焦点,首先,从安全利益的角度考量,世界各国包括我国在内的国家安全利益的信息内容一定是审核方进行信息审核的重中之重,应当进行强审核和过滤级别;其次,在信息生成过程中,生成式人工智能应当是信息的直接制造者与发布者,仍要考虑的是“设计阶段的数据预处理、部署阶段的数据提示与应用阶段的用户行为等影响”,责任主体难以分清;最后,生成式人工智能的技术与应用不断发展与扩张,平台与场景的单一化,传统的“告知—删除”等注意义务无法解决侵权情形之多样化特征。
四、探寻生成式人工智能信息内容审核机制的完善之道
在经济法和信息法共同发展的大背景下,信息法更加关注保护促进与限制禁止相统一,运用的是“信息规制”手段。随着数字经济的飞速发展,国家在既往的经济规制基础上,还要加强信息规制,实施有效的信息监管。可基于“信息审核主体—信息内容类型—信息监管体制”的内在联系,着重从发展法学的视角,解析生成式人工智能信息内容审核机制的完善之道以及贯穿其中的信息法治逻辑。
(一)引入第三方主体的评估审核
平台参与信息内容治理的内生动机是保障平台的合法性地位及其流量利益, 关注的是用户数量及内容流量所带来的市场地位与价值,强调通过流量增大而产 生更多的直接与间接经济利益,其目标是保证平台安全以及平台成本减少与利益 最大化。
因动机与目标上的耦合,在多数情况下平台与用户可以被看作是利益共同体。因此,在政府和平台与用户组成的利益共同体之外,寻找或建立一个身份更加独立、利益更加超脱、能力更加专业的第三方主体参与网络信息内容治理就有重要意义。此前,借鉴艾博特(Abbott)与辛德尔(Snidal)提出的企业、政府与非政府组织(也包括个人)“治理三角”模型,在“政府—平台—用户”结构基础上通过改进并形成“政府—平台—第三方专业机构”的网络信息内容治理三角模型。在政府和平台与用户利益共同体之外,将具有一定结构化组织形式,并具备独立开展网络信息内容治理活动资质的专业机构看作是第三方主体。这个 第三方主体参与治理的功能不仅是对不良或违规信息内容的审查,而且包括对平 台和网络整体信息内容生态状况评估等,以有效推动网络信息内容生态从被动式、运动式治理向主动建构、常态化治理的转型。
强化第三方主体的审核评估功能,一方面是使其能部分代替政府行使规制行政权力,以确保网络平台对信息内容生态安全规制的遵从;另一方面这也是平台出于控制规制成本和减少安全风险可能引发利益受损的内在需求。这表明,选择 第三方主体参与信息内容治理是政府和平台的一种双向奔赴行为。由于政府和平 台对信息内容安全及其风险的评价标准与理解水平存在差异,这就使第三方主体 如何科学平衡两者的利益十分困难。第三方主体如何客观中立地进行信息内容安 全审核评估,不仅会影响政府对其资质的认定,而且会影响平台对它的选择以及 因此产生的市场机会。第三方主体在功能定位上主要是代表政府还是平台,或者是两者兼而有之就是一个不能回避的问题。
如果第三方主体主要是代表政府,则其开展的主要就是规制性审核评估;如 果第三方主体是受平台委托,则其开展的主要就是咨询性审核评估。如果两者兼 而有之,则第三方主体如何在审核评估中平衡作为规制方的政府与作为被规制方 的平台两者之间关系和利益就显得特别重要。如果第三方主体是代表政府及其有 关主管部门对平台开展规制性审核评估,此时则需要确认政府与第三方主体之间 的关系。为了使第三方主体开展审核评估依法有据和具有针对性,可以由政府监管部门根据用户举报情况、专项治理行动案例及其代表性等,将网络平台的信息内容安全状态划分为不同等级,并委托第三方主体对安全风险等级较高的平台重点开展强制性审核评估。
因此,在规制性或咨询性审核评估中,第三方主体不仅要向政府及其主管部门负责,而且也要向平台负责,并因平台的传导而向用户负责。虽然目前引入第三方主体监管机制和多方参与的协调调解机制等举措已经进入了政策视野,但第三方主体在参与平台公私协同治理中,如何界定其与公权力主体(政府)和私 权力主体(平台本身)的权力性质以及其交叉范围,明确审核评估时以何种方式获得政府公权力主体的规制授权,又以何种方式介入平台自治等均是值得进一步讨论的问题。
(二)建立网络信息分类分级制度
建立网络信息分类分级分类分级细则,是实现生成式人工智能网络信息内容常态化监管的重要任务。
不同平台对应不同的信息类别,应当针对不同类型的平台进行差别化治理,并适时建立以风险为基础的内容分级制度。理应根据不同类型之平台实行差别化的制度设计,“根据数字内容平台介入内容生产和传播的程度以及平台业务模式可以划分为三种类型平台中介:纯中介服务平台、托管服务平台和在线平台。”纯中介服务平台对应的是网络服务基础设施提供商,可以适用避风港原则,对信息处理承担较轻的义务;托管服务平台一般是指网络托管,对侵犯个人隐私等中风险内容进行筛查即可;在平台经济飞速发展的当下,在线平台可以细分为电子商务平台、内容分发平台和分享经济平台等类型,是实现利润最大化的重要商业策略工具。由于该信息直接涉及经济发展与商业利益,在线平台对于虚假信息等低风险信息理应在技术经济合理范围内主动筛选过滤。如若以数字内容的规模为标准,可以分为超大数字平台和小平台(新进入平台),由于超大数字平台具有大量用户基础和强网络效应,风险程度较高的信息具有更广的传播面,造成的社会危害更大,且其具有更强的技术能力,能够以更低的成本治理非法有害内容。最后由于缺乏明确统一的判定标准而具有非常高的事前审查成本和审查失误风险,第三方主体重点任务是履行通知—删除义务,在受害人或用户举报的情况下及时核实,如果属实应及时删除,并有效履行反通知程序。
(三)创建多责任主体的内容监管机制
众所周知,依靠企业作为单独内部主体进行信息审核过滤在事实层面很难形成有效拦截。需要根据生成式人工智能的应用场景,设计一个可以覆盖上述多种类型信息生成渠道、区分多责任主体的内容监管机制。
一方面,鉴于生成式人工智能涉及领域广阔,其复杂性、不确定性导致的各类风险积聚,对于个体和国家不同维度体系的安全均存在一定威胁,因而应加强风险评估,建立安全监管体系和安全监测预警机制。首先需要建立一套覆盖模型机理、训练和运行模式的统一信息内容审核标准,在算法伦理原理和算法、网络安全规范的框架下,对于明确损害国家和社会安全利益的信息内容列为“最高等级”,在数据训练前期应当将信息剔除;如若存在有关社会安全等模糊不确定性信息的,将其列为“一般等级”,值得注意的是,此类信息在反馈给模型后也有可能转化成最高等级,因此应在数据策划、数据提示和数据微调阶段分别设立“技术+人工”定期巡查机制,以对相关内容及时进行清洗和过滤。
另一方面,建立一个由上到下的“标识+公开”的内容监管机制,实现对平台的内容进行全面审核,从技术开发层面,企业应当积极研发难以被后期用户删除或者更改的水印标识,对生成内容进行标记,对内容进行全流程跟踪并进行责任认定,保障信息安全,矫正信息偏在,体现实质公平和信息正义。从推进信息化建设,促进数字经济与信息社会协调发展的角度,提倡利用人工智能审核人工智能生成内容的理念正在得到普遍认可,基于未来人工智能公开透明的法律框架下,综合应当生成场景、实质内容、因违反引发的后果严重性等情形设置义务违反惩罚救济机制,阻拦有害内容生成或者传播。
(作者系中国社会科学院大学法学院2022级硕士研究生)
编辑:武卓立