近期人工智能对话模型——(Chat Pre- )火遍全网。该模型具有极强的文本生成能力,能够以自然对话的方式与用户深度交互,在广泛的知识领域都可以给出详细而清晰的解答,给用户带来了“意料之外”的智能体验。
于2022年11月发布后,其母公司估值已涨至290亿美元,上线两个月后,用户数量达到1亿。的爆火,无疑戳中了资本、技术、产业的兴奋点,全球各大科技公司迅速反应,着手部署相关人工智能产品,抢占市场先机。
伴随“尝鲜”热潮而来的是关于潜在安全风险的讨论。事实上一些用户的反馈也确实证实了其存在一些人工智能的通病。是一个生成式预训练变换模型,该模型前期的训练过程是基于人类反馈的监督学习和强化学习,在与用户大量的交互过程中聊天模型本身会将用户“喂”给它的数据作为训练数据,从而不断“进化”,但如果模型攻击者投放“有毒”数据,意图引导模型训练过程,那么就存在“吃垃圾吐垃圾”的风险。由于不会对输出文本进行校验,看似“逻辑自洽”的回答,极有可能是错误结论。就像一个巨大的黑箱,我们无法解释其运行逻辑,无法预测其输出结果。
01
人工智能风险分类
人工智能风险主要体现在两个方面:一是人工智能技术风险,主要涉及数据、算法、模型三个领域;二是人工智能应用风险,包括技术滥用产生的社会风险和使用过程中潜在的伦理道德风险等。
人工智能潜在技术风险概览
1.人工智能技术风险
(1)数据风险
目前人工智能整体发展形势仍处于以数据智能为主的阶段,模型的智能程度与学习的数据量成正相关。当前人工智能多采用深度学习的方法,这种人工智能没有储备的基础知识,它们所有的知识都来自于输入的数据,包括训练数据和与环境交互数据等。从原理上看,深度学习算法只反映数据的统计特征或学习数据之间的关联关系,并不会“解读”数据的本质特征或因果关系。攻击者可以利用人工智能的这一特点,在模型训练阶段混入“别有用心”的样本数据,从而引导模型的训练过程。目前常见的攻击方式有:数据投毒、对抗样本攻击、成员推理攻击等。关于对抗样本攻击,一个著名的例子是在等人的实验当中,下图左边是一张能够被正常分类为熊猫的图片,添加长臂猿噪音后变成右图,人的肉眼看来它还是熊猫,但会判定为长臂猿。
在训练数据中加入“长臂猿”梯度
(2)算法风险
算法是人工智能的内核。目前算法风险主要体现在三方面:
一是算法设计存在漏洞。例如2020年国内著名安全厂商360公开了24个谷歌开源框架平台的安全漏洞,而这些安全漏洞极有可能导致人工智能基础数据设施出现训练数据不均匀、训练数据投毒、训练数据泄露等安全问题。
二是算法后门,这种攻击使攻击者能够将后门插入到模型中,此模型对于正常样本的预测结果表现正常,但对于某些特定属性(成为外部后门触发器)的测试样本,可以触发后门使模型的预测结果受攻击者操控,并且其他人很难察觉后门的存在。
三是算法的“黑箱”问题和不可解释性。人工智能算法模型内部结构复杂,AI产品用户往往不清楚其算法目标和意图,且模型运行的强自主性、算法运行结果的难解释性等都导致人工智能算法在业界转化落地过程存在安全隐患,特别是涉及军事、医疗、金融保险等容错率较低的行业。
(3)模型风险
人工智能模型还存在模型窃取攻击的风险。攻击者访问目标模型的预测API,使用专门设计的样本迭代器查询目标模型,以便通过目标模型返回的预测结果最大限度地提取有关模型内部的信息。攻击者利用窃取的信息逐步训练一个替代模型,用于产生可转移的对抗样本来攻击原始模型或窃取整个模型供自己使用。
2.人工智能应用风险
人工智能的应用风险主要涉及两个层面:
一是人工智能技术滥用导致社会风险,比如大数据杀熟、推荐算法的“沉迷模式”和“信息茧房”问题、隐私与数据泄露风险、个人数据过度采集、合成虚假信息煽动社会舆论等,滥用人工智能技术深度挖掘、分析、处理个人数据和社会信息,加大了社会治理和国家安全挑战。
二是人工智能应用过程中潜在的伦理道德风险,目前人工智能技术被广泛地应用于机器人、医疗诊断、无人驾驶、AI绘画等领域,在应用过程中可能导致权责边界模糊、歧视算法威胁社会公平正义、版权无法追溯等问题。
02
人工智能安全治理难点
人工智能涉及到数据、算法、模型、应用等多个领域,技术性强、牵涉范围广、运行过程可控性低等特征给人工智能风险治理带来了诸多困难,主要包括以下几个方面:
(1)安全缺陷难发现。人工智能技术复杂,数据、算法、模型各个环节都可能存在安全隐患。一方面目前人工智能开源学习框架集成了大量的第三方软件包和依赖库资源,相关组件缺乏严格的测试管理和安全认证,存在未知安全漏洞。另一方面随着技术不断发展,攻击者所采用的攻击方式也越来越隐蔽。
(2)算法“黑箱”问题难突破。人工智能模型运行自主性强,内部交互因素众多,运行过程和结果都缺乏可解释性。
(3)安全测试标准不统一导致产品安全参差不齐。从产业实践上看,目前各家科技公司仅利用本公司所搜集的有限数据进行测试,监管部门以及各大科技企业之间暂未形成统一的测试标准及测试流程,各公司宣称“安全”的AI产品往往具有很多较难发现的安全漏洞。此外,市面上的人工智能产品数量多,种类繁杂,是否都进行过安全测试尚未可知。
(4)治理体系和技术手段不完善,政府难监管。目前人工智能相关的法律法规及治理体系尚不完善,且治理滞后性广泛存在。清华大学战略与安全研究中心主任傅莹指出,人工智能应用影响之快、之大,远不同于传统技术,而传统的立法方式需要社会基本共识作为基础,这导致传统立法手段难以快速应对人工智能安全挑战。
此外,由于技术手段探索不足导致安全监管难以到位,目前产业监管通常包括备案式和主动检查两种方式。由于算法“黑箱”难题未解决以及测试技术、测试手段不健全等原因,即使科技企业将源代码提交至监管部门备案,或者交由第三方机构进行安全审查,监管部门同样面临算法内部运行机制不清晰、算法运行结果难解释等问题,导致算法备案、第三方审查等监管方式无法发挥真正的监管作用,监管部门只能从算法外侧进行初步的安全检查,难以进行更有针对性的监管。
(5)国家之间的法律障碍和数字主权矛盾难以打破。人工智能风险的治理单靠政府实现是极其困难的,理想的治理模式是国家、国家组织、企业等多方联合开展治理。但实际上,一方面各国家的法律之间无法破壁融通,另一方面不同国家和地区存在数字主权的利益冲突,比如欧洲推出高标准的《通用数据保护条例》不仅是想要捍卫自己的数字主权利益,也想在国际上维持自身战略自主,显然欧洲严苛的数据保护措施与美国政府和私营部门倡导的数据跨境流动准则相悖。由此,目前人工智能安全治理在推进的过程中困难重重。
03
人工智能安全治理对策
由于人工智能的复杂性、强自主性,各国针对人工智能风险治理仍处于探索阶段。目前,人工智能安全治理主要包含两个方面:一是国家层面的法律法规治理;二是人工智能技术层面的治理。
1.立法规范。
政府监管和治理的根基是制度建设,虽然目前人工智能风险治理的框架并不成熟,但各国都在持续探索治理模式,相继颁布了一些法律和政策。在我国,人工智能已被提升为国家战略,各个领域都高度重视人工智能的应用,目前主要从数据和算法规范管理两个方面出台了部分标准和政策。数据方面包括《个人信息保护法》、《数据安全法》、《关键信息基础设施安全保护条例》等。考虑到算法对人工智能的影响,相关法律制度也从数据安全进一步推进到算法安全。
为了规范算法滥用、大数据“杀熟”等问题,打破算法“黑箱”,保障消费者合法权益,我国相继颁布实施了《国家新一代人工智能标准体系建设指南》、《互联网信息服务管理办法》、《互联网信息服务算法推荐管理规定》、《关于加强互联网信息服务算法综合治理的指导意见》等标准化规范和意见。
另外,中共中央印发的《法治社会建设实施纲要(2020—2025年)》提出,应制定完善的算法推荐、深度伪造等新技术应用规范管理办法,加快算法领域的立法建设,出台与算法安全治理相关的治理法律法规、监管标准规范等,从而保护消费者的合法权益和公平竞争的市场环境。除国家层面的法律法规外,监管部门以及各大科技企业之间应加快形成统一的测试标准及测试流程,一方面可以规范人工智能产品的设计,另一方面可以更加全面的发现人工智能产品的安全漏洞。
2.构建安全框架,优化防控技术。
除国家层面的规范外,各企业在开展人工智能安全治理工作中也应该搭建完善的治理框架并持续优化防控技术。人工智能安全框架可包含安全目标、安全能力、安全技术和安全管理四个维度。
这四个防护维度自顶向下、层层递进,指导企业构建人工智能安全防护体系。其中安全目标需综合考虑人工智能产品服务和安全保障的各个方面,如应用合法合规、功能可靠可控、数据安全可信、决策公平公正等,合理的安全目标是构建安全框架的基础;安全能力由基础到高阶可分为架构安全、被动防御、主动防御、威胁情报和反制进攻能力;在技术层面,可以从数据、算法、平台等方面开展安全部署和技术优化,例如针对数据安全,可考虑采用隐私计算、联邦学习、多方安全计算、区块链等技术加强保障;在安全管理层面,企业应完善人工智能安全组织架构和制度流程、培养安全人员能力等,需将风险监测和安全评估工作常态化。
人工智能技术的发展和应用是不可阻挡的趋势,对社会各领域都是一个的机遇,但其潜在的安全风险也是一个巨大的挑战。只有通过加强对人工智能安全性的研究、法律治理和政策治理,以及加强对人工智能安全性的监管,才能确保AI技术及其应用的安全性,推动科技“向上向善”。
★
点击下方文章链接
发表回复