用AI保护AI
打造安全领域大模型成应对人工智能安全风险挑战关键
2023-07-21 16:41:32 来源:法治日报-法治网
7月18日,2023中国互联网大会AI安全论坛在京举行。与会嘉宾认为,目前大模型等技术推动人工智能行业快速发展,赋能千行百业为实体经济发展带来强劲动力。但与此同时,也面临诸多安全风险挑战。研发网络安全领域大模型,用AI保护AI成为解决当前困局的有效途径。同时,凝聚安全行业力量,共建安全大模型高质量数据集,成为业内共识。
当前,互联网发展已进入万物皆可AI时代,人工智能在国际竞争和经济增长中都发挥着重要作用。但不容忽视的是,在赋能产业应用,提高生产效率和质量,降低成本和风险的同时,人工智能的快速发展也带来了一系列新的安全应用风险与挑战,数据安全、算法安全、应用安全、行业安全等关键问题亟待解决。“技术的变革越是进入一个快车道,网络安全行业更要以高质量发展为主基调。”中国互联网协会副理事长黄澄清说到。
对于如何破解人工智能安全发展难题,北京市通信管理局党组成员、副局长王晖建议,人工智能在发展的过程中,应坚持发展与安全并重、权利和义务并重、自主与协作并重。要不断探索并完善与创新发展相适应的安全保障方式,在创新发展与风险规避之间寻求平衡。同时要积极履行企业的主体责任,加强人工智能发展的潜在风险研判和防范,确保人工智能安全可靠可控。此外,还要掌握核心技术和知识产权,提高自主创新能力和竞争力,加强跨学科跨领域的协作。
今年以来,ChatGPT掀起大模型的发展热潮,人工智能产业风头更劲,迄今已有80余个大模型公开发布(数据截至5月28日)。大模型产品正不断向政务、金融、文创、医疗等行业拓展,产业链上下游创业热潮不断高涨。
年初,《数字中国建设整体布局规划》印发,提出强化数字技术创新体系和数字安全屏障两大能力,这为人工智能的发展提出了更高的要求。大模型等人工智能在带来新的安全变局之下,正在显露出对整个网络安全行业的影响力和巨大潜力。
安恒信息高级副总裁、中央研究院院长王欣表示,目前大模型使用存在巨大风险,基于ChatGPT基础上做应用而涉及到的数据出境问题,借助第三方云算力平台可能会导致内部商业秘密泄露的问题,以及个人隐私泄露、知识产权等问题,需要引起高度重视。
他认为,安全是大模型的底座,安全本身是大模型很好的应用场景。随着大模型技术的发展和技术场景的变化,衍生出一些新的安全需求。大模型自身存在的安全问题,用户在使用大模型的过程中产生的安全需求、安全痛点,以及黑客攻击等都带来新的安全挑战。
同时,人工智能依赖大规模数据,数据包含有害和敏感信息的话,会在实际应用中产生数据隐私泄露、违规信息生成等安全风险。真实性、合法性,是人工智能应用不可逃避的监管难题。
“现在的模型越来越大,传统安全领域一些人工审查的方法已经不适用。未来AI安全本身需要用另一个AI来保护。”华为计算首席安全专家、TCG董事张瑞说到。
中关村国家实验室、清华大学教授李丹,则从构造网络安全领域垂直模型的训练语料库、提升网络安全向量检索引擎与提示语工程技术等构建网络安全领域垂直大模型的实操角度进行了建议。
此外,为解决数据分散且无统一标准、攻击行为多态多变、运营工作门槛比较高等人工智能安全行业发展痛点,论坛现场还发布了《安全大模型高质量数据集倡议书》,倡议网络安全行业将"数据共享、质量为先、有效流通、合法合规"作为整体指导方针,通过共建安全大模型高质量数据集,提升安全运营效能,将海量数据中蕴含的能量转化为生产力,促进AI安全产业的合理有序发展。(哈建伟)
编辑:迟明绪