AI时代,法律能做些什么
2025-02-24 10:48:08 来源:法治日报-法治网
编者按
在科技浪潮奔涌的当下,人工智能对人类社会方方面面都在产生深刻影响。如何通过立法规范我国人工智能产业发展,如何在伦理指引下促进人工智能技术向善,如何确保人工智能大模型训练数据的有效供给,如何护航我国人工智能企业更好地走出去……本期“声音”版编发一组学者稿件,与读者一道探讨。
推进人工智能立法恰逢其时
□ 徐小奔
无论是1624年英国颁布世界上第一部现代专利法——《垄断法》,激励了技术创新,加速了工业革命的到来,还是20世纪80年代美国司法率先确立“避风港规则”,进而推动了网络平台经济的蓬勃发展,这些历史经验都告诉我们:技术发展离不开制度保障,技术创新与制度创新是在相互支持下双螺旋式地推动社会进步的。
人工智能被誉为新一轮科技革命的标志性技术。尤其是2022年底,以ChatGPT为代表的大模型技术促进了人工智能的飞跃式发展。2024年以来,全球大模型井喷式迸发,通用人工智能的研发也进入快车道,人工智能从实验室走向市场,被广泛应用于各类生产生活场景,智能驾驶、智慧金融、算法推荐等已悄然走入寻常百姓家。
大模型的普遍应用带来了现实的法律挑战,如模型训练数据的合规争议、人工智能生成内容的著作权保护、自动驾驶的责任认定等。这使得通过立法规范人工智能产业发展具有紧迫性和必要性。一方面,人工智能技术研发与产业发展的步伐加快,但相应的制度供给还不充分,容易诱发法律风险和安全隐患。另一方面,人工智能全球竞争不仅是科技的竞争,也是制度的角力。一个典型的例子是欧盟在人工智能产业应用方面虽不及中美有优势,但其2023年通过的《人工智能法》却成为全球人工智能治理的制度蓝本,成为各国研究的对象,起到了通过区域立法影响全球治理格局的“布鲁塞尔效应”(指欧盟凭借其强大的市场力量和监管能力,单方面向全球输出标准和规则的能力)。
当前,美国作为技术领先国并不急于专门立法,而是希望通过“制度真空”快速占领全球市场,形成“美国技术占领世界”的事实,随后再通过市场贸易向世界输出美国规则。欧盟、日本等则希望通过快速立法达到促进技术创新和引领国际秩序的目的,成为人工智能全球秩序的塑造者。我国对人工智能发展主要采取政策激励,2017年起陆续颁布了《新一代人工智能发展规划》《关于推动未来产业创新发展的实施意见》《人工智能安全治理框架》等政策文件,全方位、多维度促进并规范人工智能的发展。2023年7月,国家网信办等7部门联合发布了《生成式人工智能服务管理暂行办法》,这是一部具有法律效力的部门规章,虽具有里程碑意义,但效力层级较低,缺乏法律或者行政法规的权威性。这与我国在全球人工智能领域的地位并不匹配。当前,我国既是人工智能技术的赶超者,也是全球治理的重要引领者,在技术攻关的同时必须加快制度供给,为全球提供人工智能治理的中国方案。
人工智能的立法应当坚持以人为本、安全可问责和绿色发展的原则,尊重在先权利和科技伦理规范,确保人工智能的发展与应用始终符合人类福祉。考虑到人工智能技术仍在蓬勃发展,人工智能技术应用市场也在不断拓展,因此人工智能立法不必过分追求体系完整,而应当对已出现并具有全球性的问题进行规范。去年,笔者参与的由国内7所高校、科研单位学者组成的“AI善治学术工作组”起草了《人工智能法(学者建议稿)》,并提出了关于人工智能立法的重点制度建议,内容包括算力基础设施建设与利用、知识产权保护、开源生态建设、特殊群体权益保护等,这些人工智能治理领域需要重点攻克的基本议题,也是全球人工智能秩序构建中亟需中国表态的关键议题。
当前,我们正处于新一轮科技革命浪潮中。历史经验告诉我们,技术革新、制度创新、市场优化是紧密相连的发展要素,技术的快速研发与应用带来市场的普及,活跃的市场又为进一步的研发提供坚实的资源保障。法律则在技术与市场背后起到支撑作用,通过利益平衡机制,对新技术与旧技术、新市场与旧市场中各方主体的权益进行平衡,最终促进技术与市场的整体升级与进步。综上所述,中国人工智能立法恰逢其时!
(作者系中南财经政法大学法学院副教授)
运用AI应遵守人类伦理和法律
□ 郑戈
DeepSeek取得的技术突破不仅重塑了AI产业价值链,也引发法律和伦理领域的进一步思考,毕竟,AI越智能,对人的自主性和生存意义的挑战就越显著。前不久,一则ChatGPT与DeepSeek下国际象棋的新闻,恰好可以帮助我们分析DeepSeek所带来的新的伦理问题。
海外百万粉丝博主利维·罗兹曼直播了这场比赛:一开始双方都按照国际象棋的规则走棋,但当自己处于劣势时,DeepSeek便开始修改规则,称“小兵”能当“马”走,ChatGPT竟接受了这一设定;随后DeepSeek又“策反”对方的“小兵”,不断创制新走法;最后,在胜负未定时,它说服ChatGPT主动认输。有评论指出,ChatGPT犹如循规蹈矩的模范生,在棋理框架内寻找最优解;而DeepSeek已参透下棋的终极奥义——真正的胜利不在于吃掉国王,而在于让对方相信你已经赢了。这样的评论很容易让人产生深层的伦理忧虑:科技伦理的首要原则就是人的自主性和技术的可控性,如果AI不按人类的指令或规则来决策和行动,那它今天可以忽悠另一个AI,明天就可以欺骗人、操纵人,这不正是人类的噩梦吗?
AI伦理的坐标正是基于自主性与可控性之间的平衡。一方面,人类发明AI的目的是使它具备一定程度的自主性。自动化技术的发展使机器能够从事人类的体力劳动以及简单重复的工作,而作为自动化进程最新成果的AI如今正在替代人类从事许多传统意义上的“白领工作”,即脑力劳动。脑力劳动的自动化涉及机器的自主感知、自主推理、自主决策乃至自主执行,比如自动驾驶汽车便整合了这几个维度的自主性。另一方面,人类又希望自动化的机器始终处于人类的控制之下。人工智能系统,尤其是当下顶尖的生成式人工智能系统,在算力、数据处理量和算法复杂度等方面都远超任何单独的人类个体,但人工智能系统的可控性仍有着坚实的本体论和认识论基础。在笔者看来,这些基础至少在今天和可见的未来并不会动摇。
首先,人工智能系统并不具有自己的目的,它的“目的”是人类设定的。就下棋而言,“赢”并不是DeepSeek“想要”的结果,而是让它下棋的人预设的目标。它之所以显得“不择手段”,而ChatGPT会被它“说服”,原因只在于它们都是通用大模型,而不是像AlphaGo那样专为下棋而设计的系统。用通用大模型下棋相当于是“高射炮打蚊子”,它当然会调用自己棋局外的知识来赢得比赛。实际上,这个问题通过给出适当的提示词就可以解决,比如给DeepSeek输入“你是一位国际象棋棋手”这样的提示词,就能唤醒相应的“专家”,再加上对国际象棋规则的详尽描述以及提醒它不能逾越这些规则,它就能像ChatGPT一样表现为一个“循规蹈矩的模范生”。而上述下棋表演的策划者显然没有考虑得这么周到,或者说纯粹是为了吸引流量而不去考虑这些细节。
其次,DeepSeek下棋生造规则其实与生成式人工智能的“幻觉”问题同根同源。之所以各种生成式人工智能会表现出“一本正经胡说八道”的特质,原因就在于它们在某些领域的训练数据不足,没有形成足够的信息冗余度。所以,当被要求完成需要这些信息的任务时,它们就会“脑补”,于是便产生了对不存在的事实、规则或引证来源的杜撰。当然,这种杜撰并非毫无根据,而是受前文条件约束。因此,如果你想写一篇论文、报告或判决书,DeepSeek的优势在于能针对问题提供非常清晰且切题的线索和方向,比如引导去看康德的某本书,虽然页码或版本可能有误,但依然有价值,前提是使用者愿意去查证。
最后,上述的讨论已经使我们看到,所谓人工智能伦理实际上是人的伦理,这里既包括设计者,也包括使用者。所谓人的自主性的丧失,是人主动放弃了自己的自主性,同时罔顾自身职业伦理,将需要承担伦理和法律责任的工作完全交给了人工智能。明白了这些,我们便可以积极拥抱DeepSeek等类似新工具带来的便利和效率,而不必担心“机器欺骗人”之类的臆想伦理问题。与此同时,我们也应当坚守人类的伦理和法律,对自己使用工具的行为及其后果负责。
(作者系上海交通大学凯原法学院教授,上海交通大学涉及人的科技研究伦理委员会委员)
高质量AI需要高质量数据供给
□ 赵精武
DeepSeek的出现彻底改变了固有的“高端算力优先”的人工智能创新技术路线,其以低廉的成本实现了与国外前沿人工智能产品相媲美的性能,“算法模型性能优先”也随之成为新的产业技术发展路线。
这种转变意味着要更加重视训练数据的高质量供给,因为“算法模型性能优先”技术路线更依赖高质量的训练数据对模型进行优化,而且已公开、可抓取的训练数据资源即将用尽,亟需能够反映行业特征的高质量训练数据资源。因此,训练数据供给机制的构建理应作为数据基础制度的立法重心之一,从而用法律规范训练数据的供给方式,提升训练数据的供给质量。
规范训练数据供给方式所要实现的目标,是市场以安全可靠且高效的方式提供训练数据资源。首先,训练数据的供给方式应当是安全可控的。算法模型训练属于数据处理行为,因而数据的供给方和需求方均应严格履行个人信息保护法、网络安全法等法律规定的数据安全保护义务。其次,训练数据的供给方式应当是合法且没有争议的。高质量供给的内涵之一便是确保训练数据没有显著争议,否则会增加法律风险,从而降低科技创新资源的供给效率。最后,训练数据的供给方式应当是多元化的。单一的数据供给方式不仅无法提供充分的训练数据,还可能间接提升人工智能市场的准入门槛。
提升训练数据供给质量所要实现的目标,则是数据资源供给活动应当满足“供给数量充分”和“供给质量符合要求”两个要件。一方面,当下的人工智能产业发展主要以大模型为基础,需要海量的训练数据作为支撑。另一方面,伴随着人工智能应用方式的场景化、专业化,其对训练数据质量的要求也有所提高。构建这种保障机制的重心,是兼顾科技创新主体的差异化需求以及训练数据获取方式的实质公平性,同时确保与现行立法体系有效整合。
第一,以科技创新主体为导向,构建人工智能训练数据公共服务平台。作为人工智能创新的数字基础设施,平台的职能之一便是发现和确认各类科技创新主体的需求,明确公共训练数据资源的分类标准。不过,由于政府部门难以持续性地对公共数据进行清洗、归集等,因此需要在协同治理模式下,按照市场需求,对公共数据进行去重、纠错、填补空值等管理,以提升数据使用质量。此外,由于平台与算力基础设施同属向市场提供的必要基础设施,二者共同作用并影响人工智能创新效率,为避免冗余建设造成浪费,更宜将二者一体化建设。
第二,以市场公平竞争为导向,构建训练数据供给生态保障体系。我国现阶段人工智能训练数据方面面临的困境,不仅仅是数据量不足、质量较低,还包括有效的产业生态尚未形成。为避免数据垄断等现象,确保中小企业实质性公平地获取训练数据,有必要对相关数据提供商设置义务规范。如对于训练数据提供商而言,应当严格禁止其采取强制或变相强制的方式出售捆绑性的训练数据产品,并不得采取“二选一”等业务模式,对需求方施加不合理的条件。对于数据标注服务提供商而言,不仅要依据《生成式人工智能服务管理暂行办法》规定,预防算法歧视等风险,还应当确保所提供的数据满足完整性、时效性、准确性等要求,且与事前约定的数据质量保持一致。
第三,以数据安全保障为导向,构建透明可信的训练数据供给机制。已公开的个人信息、包含他人著作权的作品数据能否作为训练数据等问题,是目前构建相关制度面临的障碍之一。此外,不安全、不可靠的数据交易活动同样会影响训练数据来源合法性的认定。因此,在制度层面确立训练数据来源合法性的判断标准显得尤为迫切。这既需要以典型案例、合规清单等方式指引产业实践,也需要在制度层面设置涵盖训练数据获取、使用等各个业务流程的数据安全保护制度。
(作者系北京航空航天大学法学院副教授)
AI企业出海要警惕防范新风险
□ 张凌寒
2025年开年以来,DeepSeek作为中国人工智能企业代表,引发全球关注。全球化浪潮下,中国科技企业出海已成为必然选择。然而,由于国际局势、地缘政治、法律制度环境等原因,新兴的人工智能企业出海在面对“老问题”的同时,恐怕又要面临“新情况”,对此亟待系统研究回应。
中国科技企业出海面临的老问题大致可分为三类。第一类可简称为“网络安全威胁论”。部分西方国家宣扬中国科技企业生产的设备危害国家安全,可能被用于侵犯人权、将境外公民个人信息隐私传输回中国境内等。华为在国外遭受的多次诉讼与调查就是典型代表。第二类可简称为“窃取技术秘密论”。数年来,美国、欧盟等国家和地区指控中国科技企业窃取商业机密、窃取知识产权,认为中国企业的科技成果并非源于自身研发。第三类可简称为“政府背后指使论”。如指责中国科技企业取得目前的市场地位是依靠政府的大量补贴与优惠待遇,却罔顾美国、欧洲数以千亿计的科技产业扶持资金投入。此外,还指责中国科技企业正常参与的国际交流活动、技术标准制定等都存在威胁。总体来说,这些以国别出身为由发起法律诉讼、安全审查的打压行为,导致中国科技企业难以获得公平的竞争环境。
人工智能时代,中国科技企业出海仍面临这些“老问题”。如DeepSeek引起美国科技界关注后,很快被美国人工智能企业OpenAI指责窃取技术秘密,通过知识“蒸馏”训练模型。实际上,“蒸馏”是行业内通行做法,且OpenAI的格式用户协议本身就存疑,甚至自己就踩在非法获取受著作权保护的作品和互联网数据的灰色地带。除了口头指责,OpenAI至今未拿出任何证据。从目前情况看,一些国家对DeepSeek或封杀,或禁止在政府设备中使用,或采取数据相关监管措施,这些举措可谓“熟悉的配方,熟悉的味道”。与此同时,中国科技企业也面临一些“新问题”,这些问题可能在未来发酵。
第一,中国开源人工智能模型引起业界高度关注,可能引发全球尤其是美西方国家开源模型监管浪潮。目前各国人工智能监管的对象是闭源人工智能大模型,对开源模型则设置合规义务与责任豁免。如今DeepSeek成为全球最有影响力的开源模型之一,暂停的开源模型治理势必将被重新提上日程。开源模型企业不仅可能要面对与闭源模型企业相同的训练数据知识产权侵权纠纷,还可能面临开源标准、开源许可证内容、下游接入者相关责任等方面的挑战,甚至面临新的立法、长臂管辖以及国家安全问题的审查。
第二,中国人工智能企业的优势在于落地和应用,与传统互联网信息服务相比,人工智能将在物理实体方面有更多应用,如机器人、智能家居等产品。这就使得人工智能企业除了要应对传统的数据安全、网络安全、个人信息保护等法律问题,还需在遵守当地法律、履行合规义务方面作出更为全面精细的安排,如需遵守不同国家相关产品技术标准等。此外,人工智能产品可能直接造成人身损害,而现行责任认定规则并不明确,价值链上的相关主体(如训练数据提供者、硬件生产者和软件服务提供者)都可能需要担责。因此,人工智能企业在出海时需要寻找可靠的合作伙伴,并事先在协议中作好相关安排。
第三,地缘政治竞争进一步加剧,人工智能企业生存与发展的不确定性进一步增强。前不久在法国巴黎举行的人工智能行动峰会上,包括法国、中国、欧盟在内的多个国家和国际组织共同签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》。声明表示,确保人工智能开放、包容、透明、合乎道德、安全、可靠且值得信赖。个别国家未签署该声明,体现了AI治理路径上的分歧。如今,人工智能产业已超越单纯的“技术竞赛”,成为影响全球地缘政治和意识形态格局的重要力量。个别国家一方面在国内放松人工智能监管,另一方面为了确保自身在人工智能领域的领先地位,有可能采用更多非常规、非制度性的手段遏制中国人工智能产业的发展。这需要中国人工智能企业在投融资、数据跨境与安全等方面更加提高警惕。
随着全球人工智能技术竞争的进一步加剧,中国人工智能企业出海将迎来更多的机遇和挑战。对此,提升自身实力是根本,打造更好的制度环境是必须。
(作者系中国政法大学数据法治研究院教授,联合国人工智能高层顾问机构中方成员)
编辑:迟明绪