文 | 邱鹏飞律师 高级合伙人

03

人工智能应用相关的主要法律风险

实务中,无论是应用开发者、经营者以及使用者都应当重视以下与人工智能应用相关的主要法律风险:

1、数据安全及规范使用的相关风险

人工智能应用(AI应用)核心是“数据、算法和运算能力”,其中算法是依托于大数据,因此天然需要大量的数据支持以便进行不断的迭代和更新。数据的完整性和真实性对其至关重要。目前常见的合法数据获取方式包括开发者自行输入、第三方授权、用户授权、网络爬虫、生态共享、自身产品生成等方式。随着《网络安全法》、《数据安全法》、《个人信息保护法》、《网络安全标准实践指南—人工智能伦理安全风险防范指引》、《新一代人工智能伦理规范》等法律法规、规章制度和行业标准相继落地,对于数据的收集、存储、使用和共享等提出了明确的司法保护和责任规制要求。

以类的应用为例,用户在使用过程中也是不断提供应用数据并且为应用所储存的过程,这一过程首先应充分告知、并取得用户的特别授权,并且同时应当提供撤回选项。如对于数据向第三方提供、公开信息、敏感信息或者个人信息跨境等问题还应当单独取得用户的特别同意。

对于网络爬虫方式收集的数据信息,也应采取数据获取的合法方式。对于完全公开的数据(无事先身份认证前提的数据)、相对公开数据(有特殊授权范围及事前认证前提的数据)以及非公开数据(往往构成法律意义上商业秘密的数据,)数据收集方应当根据数据的不同类型采取适当的方式进行收集,比如对于相对公开数据收集应当取得用户及数据控制方的特别授权,以此避免构成不正当竞争行为、甚至构成非法获取计算机信息系统数据罪等法律问题。

基于此,数据收集方在收集不同公开程度的数据时,应当严格遵循“合法、正当、必要”原则,并共同出台行业公约及标准化共享化协议,形成行业规范化数据收集的指引依据。

此外,人工智能应用数据库选择的完整性也会大大影响人工智能应用的准确性。比如裁判文书网会公开相关的判决书,但相关判决书背后的证据资料、证据审查意见、详细代理意见、庭审意见、内部合议庭意见、审委会意见等并不公开。因此,人工智能应用数据收集的不完整也令输出结果的可靠性存在质疑。目前根据部分自媒体披露的使用过程来看,经常会出现未提供引用数据的来源,或者所提供数据来源本身就不准确或者是系统自行编造的情况。因此作为应用开发者或者经营者来说,保持数据的收集、储存、使用和共享等方面合规,不仅要确保应用在推出的这个时点是合规的,更要确保应用在使用过程中进行持续的审查、自检和更新,以确保持续性的合规。

2、算法相关问题

算法模型是人工智能应用的底层逻辑基础,其内部结构和输出原理很难为未受过训练的普罗大众或者司法从业人员所了解。因此算法模型的不透明性也与常见的信息公开原则相违背,再加上算法模型大致上为一种概率学的分析,容易忽视个性案例,因此也与司法实践中讲求的实事求是的原则相违背。不过未来随着相关应用在司法领域的普及(比如许多机构已推出“模型说明书”或者打造可解释性的工具,如AI模型等),以及跨领域人才(技术及司法人才)的培养,对于算法透明化的问题,相关技术机构和司法机构也在不断推进新的举措。

我国现行法规分别从反垄断、反不正当竞争、个人信息保护、算法服务监管、深度合成信息等角度对于算法进行了规范,具体文件包括《反垄断法(修正案)》、国务院反垄断委员会发布的《国务院反垄断委员会关于平台经济领域的反垄断指南》、九部委出台的《关于加强互联网信息服务算法综合治理的指导意见》、国家网信办出台的《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》等法律法规及规章制度等。

人工智能管理系统软件_人工智能软件平台_人工智能软件chatgpt的维护

目前根据相关规定,算法可分为生成合成类算法、个性化推荐类算法、排序精选类算法、检索过滤类算法、调度决策类算法(外卖平台)等。其中类应用大致属于生成合成类算法。从合规角度来看,相关应用的设计者和经营者应当重点关注以下方面:

(1)建立健全算法管理制度和技术措施,相关制度应当包括对于健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置、防止诱导沉迷系统、人工审查及干预系统、违法不良信息处置及通报制度、辟谣及虚假信息处置制度等;同时设置定期审核、评估、验证算法的常态化监督制度,确保上述制度有效落实、执行以及更新;

(2)优化算法规则的透明度和可解释性,鼓励去重、打散干预等策略;

(3)对算法生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识,并以此技术从事任何违法行为。而类应用也应当对此作出相应设置,确保其所提供的内容能有效被识别,以防止抄袭、作弊等情况频发。据报道,方面拟推出相关检测应用,确保第三方可以识别相关生成的内容。当然由于类应用生成物为文字内容,也极其容易增删、调整、转化语句等,所以如何做出有效标识以及进行可查证,似乎也有一定难度;

(4)加强用户权益保护,从知情权、选择权、投诉及举报权、特殊群体保护(未成年人及老年人等)、劳动者工作调度权益保障、消费者公平交易权(主要针对“算法杀熟”)等角度进行保障;

(5)对于具有舆论属性或者社会动员能力的深度合成服务产品应当进行事前安全评估,其服务提供方及技术支持方应履行备案和变更、注销备案手续,并在其对外提供服务的网站、应用程序等的显著位置标明其备案编号及公示信息链接;

(6)人工智能时代的商业竞争行为应以法律为边界,防止利用算法优势等开展不正当竞争及垄断行为。

3、人工智能应用所带来的侵权责任承担问题

人工智能应用侵权责任的主体,除了传统意义上的设计者、经营者以及使用者之外,最大的争议在于人工智能应用本身是否构成侵权责任的主体。从弱人工智能应用的角度来看,司法实践一般将其作为工具,因此人工智能应用本身不构成侵权责任主体。但随着等更具有进步性的人工智能应用加速拓展,强人工智能应用是否构成侵权责任法律主体,而非法律客体也变得具有探讨的实际意义。而欧盟则最早提出了人工智能“电子人格”的说法。比如在科幻电影《流浪地球2》中的MOSS系统,显然具备了欧盟所理解人工智能的“电子人格”。当然目前对于侵权责任主体认定上,人工智能应用还属于物的范畴。

从人工智能应用的侵权行为产生的起点来看,主要有以下三个原因:

(1)人工智能应用产品本身的设计缺陷及质量问题等;

(2)使用者的故意或过失的行为,比如操作错误或不法行为;

(3)非归因于生产商及使用者的原因,而是基于人工智能应用自身判断的技术原因。举例来说,与传统搜索引擎不同,搜索引擎将数据信息抓取以原状呈现,并未进行加工和再创作,如果信息使用者非法使用抓取信息那显然认定使用者存在过错。但应用或者比如自动驾驶系统等是在用户看不见的地方完成了数据的收集及重新整理后进行的再创作、再判断,一旦其所生成的内容或作出的行为构成了对第三方的侵权时,则很难完全推定用户存在任何过错。

其中前两个原因本身较易判断,符合现行侵权责任法的过错责任原则,即具备明知或应知的前提。但第(3)个原因系归因于人工智能应用本身,在学界曾进行过不同观点的探讨。目前司法实践更倾向于从《产品责任法》中生产商的无过错责任来认定,即生产商是对人工智能应用的行为预测更为熟悉,对于应用的算法、底层逻辑掌握远高于其他环节的经营者及使用者等。而且人工智能应用的复杂性、技术性以及科技发展的突破速度,使得要证明人工智能应用本身存在或者不存在缺陷,举证上都异常困难,耗费巨大,因此从侵权行为导致的结果和损失角度出发,适用严格责任制度,更有利于矛盾化解。