传统行业“+人工智能”的主要法律问题

发布时间:2018-07-10

文 | 黄春林 汇业律师事务所 合伙人

近年来,人工智能技术在金融、电子商务、信息服务、家居、物流、交通、医疗等传统行业广泛应用,全面提升了相关行业发展的智能化水平,诞生了越来越多的创新商业模式。

为了鼓励和规范传统行业“+人工智能”,国家及各地相继出台了一系列人工智能产业发展的宏观规划与政策纲要,例如国务院《新一代人工智能发展规划》(2017.7.8)、四部委《“互联网+”人工智能三年行动实施方案》(2016.5.18)、工信部《促进新一代人工智能产业发展三年行动计划(2018-2020)》(2017.12.14)、上海市《关于本市推动新一代人工智能发展的实施意见》(2017.11.14)、《浙江省新一代人工智能发展规划(征求意见稿)》(2017.9.8)等等。

同时,在一些行业微观领域,人工智能有关的行业标准和规范指引也在逐步建立和完善,例如央行等《关于规范金融机构资产管理业务的指导意见(征求意稿)》(2017.11.17)、卫生部《人工智能辅助诊断技术管理规范(试行)》(2009.11.13)、《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》(2017.12.15),等等。

结合现有政策、监管及司法实践,汇业黄春林律师将在本文中详细介绍传统行业“+人工智能”的行业准入、责任主体确立、数据合规、消费者权益保护等主要法律问题。

一、 “+人工智能”的行业准入问题

传统行业“+人工智能”会产生很多创新商业模式,该模式是否会被认定为一个新兴行业,进而触发行业准入监管,一直是很多创新行业非常关注的问题。例如:自动驾驶是否需要准入批准?智能投顾是否属于持牌业务?人工智能辅助诊断是否需要特殊许可?等等。

关于这些问题,目前我国立法层面并没有明确的定性规定,但在具体监管实践中,主要采取的是“产品与工具二分监管模式”。即,若人工智能技术的实质就是产品,则按照穿透监管原则,应当按照该产品所处的传统行业准入监管;若人工智能技术仅仅是为传统产品提供辅助性工具,则按照包容审慎监管原则,无需取得特殊准入许可,但很多时候需要向主管部门备案技术细节。

以智能投顾/智能理财为例,根据央行等《关于规范金融机构资产管理业务的指导意见(征求意稿)》规定,金融机构运用人工智能技术、采用机器人投资顾问开展资产管理业务应当经金融监督管理部门许可,取得相应的投资顾问资质;但是,外部机构为金融机构开发、提供智能投顾算法、系统或辅助技术支持的,外部机构本身无需取得相关金融业务许可。

二、 复合产品下的责任主体确立问题

如何确立人工智能技术背景下的复合产品责任主体,一直是困扰行业监管及司法实践的一个重要难题。所谓复合产品,是指传统行业“+人工智能”后可能导致的多元产品或服务叠加。例如,基于互联网的智能投顾就是一个典型的复合产品,谁是金融产品提供者,谁是投顾服务提供者,谁是平台/信息服务提供者。

实践中,产品的形式逻辑、法律协议、资金流向等因素,成为确立人工智能技术背景下的复合产品的责任主体的重要参考因素,也是各主体间规避法律责任的重要策略。

以“车+地图导航+人工智能”的智能导航纠偏系统(下称“智能纠偏系统”)为例,智能纠偏系统本身是否有通过商标、界面文字或语音等形式,提示智能纠偏系统的实际提供者?智能纠偏系统的许可使用合同、用户协议等文件由谁签署?智能纠偏系统的著作权、SP等官方登记文件由谁申请?用户向谁支付智能纠偏系统的许可/使用费用?等等。

如果前述参考因素都是模糊不清的,此时,“车+地图导航+人工智能”这个复合产品的责任主体就很难分立。这不仅会影响智能纠偏系统的主体准入许可适用(例如是否需要地图资质?是否需要SP许可证?),还会影响产品责任的分担与消费者权益保护问题。

三、个人信息与隐私保护问题

根据国务院《新一代人工智能发展规划》,大数据是新一代人工智能的基石。当前热门的人工智能商业模式及产品中,都离不开背后的大数据支持。所以,传统行业“+人工智能”的过程中,如何平衡数据使用方、数据控制方及数据主体的利益,成为人工智能宏观立法与微观合规的重要课题。数据使用方与数据主体之间,存在个人信息与隐私保护问题;数据使用方与数据控制方之间,存在数据合规与竞争秩序问题。

个人信息与隐私保护,是国家及各地人工智能产业政策及规划重点关注的法律合规问题。国务院《新一代人工智能发展规划》及工信部《促进新一代人工智能产业发展三年行动计划(2018-2020)》均明确提出,加强人工智能相关的隐私及信息安全等法律问题研究,强化数据安全与隐私保护,加大对数据滥用、侵犯个人隐私等行为的惩戒力度。

《网络安全法》、《关于加强网络信息保护的决定》、《电信和互联网用户个人信息保护规定》等明确规定了收集、使用与分享用户个人信息的规范。传统行业在使用人工智能技术时,务必要保持个人信息收集与使用克制,重视个人信息及隐私保护的法律合规问题,严格按照法律规范及监管实践,谨慎设计、开发商业模式及产品,防范侵犯公民个人信息及隐私权的刑事、行政及民事法律责任。

四、数据合规与竞争秩序问题

早些时候,华为荣耀Magic手机收集腾讯微信等应用的用户数据,爆发华为与微信双方口水冲突,被认为是人工智能发展进程中具有重要意义的法律合规标志性事件。该事件对于如何平衡数据使用方与数据控制方之间的利益,规范行业竞争秩序,具有重要的参考意义,但遗憾的是,该事件最后因一些不可言明的原因不了了之。

如前所述,新一代人工智能技术高度依赖大数据,但大数据又是互联网时代非常稀缺的资源。这就导致很多传统行业在利用人工智能时,因缺乏基础数据,不得不利用一些不正当的手段获取其他经营者的数据,例如前述案例中,华为对微信等应用的基础数据的篡取。

司法实践中,越来越多的案例表明,未经许可使用数据控制方的数据(尽管数据控制方可能并不拥有该等数据的“所有权”),不仅会构成不正当竞争或侵权(例如陌陌与微博案例、百度地图与大众点评案例),还可能会涉嫌构成侵权公民个人信息犯罪、非法获取计算机信息系统数据犯罪等(例如货车帮与运满满案件)。

五、消费者权益保护问题

金融、电子商务、家居等行业“+人工智能”,可能会导致“规则暗箱”、“数据歧视”、“消费欺诈”等问题,进而影响消费者的合法权益,已经越来越引起监管部门及司法机关的重视。例如,在国务院《新一代人工智能发展规划》中明确规定,建立健全公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。

随着神经网络等新一代人工智能技术的使用,人工智能技术的“规则透明”,引起了社会的广泛关注,因为这不仅关乎行业竞争秩序,更关乎消费者的知情权。在信息时代,监管部门越来越重视消费者对人工智能模型、算法及数据的知情权,例如P2P监管中的信息披露制度,网络游戏行业监管的概率披露制度,而欧盟《一般数据保护条例》甚至赋予了消费者拒绝人工智能的权利。

此外,传统行业在用户画像、信贷风控、精准营销等场景使用人工智能,可能会导致的数据歧视问题,也越来越引起人们的关注。欧盟《一般数据保护条例》也明确规定,用于用户画像的数据不能包括可能导致数据歧视的人种或者种族起源、政治意见、宗教或者哲学信仰、商会会员、基因、生物特征、健康状况、性生活等个人数据。

目前市面上很多产品或服务打着人工智能的旗号对外虚假宣传,涉嫌消费欺诈或广告违法,已经引起了立法部门的关注。例如,根据前述央行等《关于规范金融机构资产管理业务的指导意见(征求意稿)》规定,“金融机构应当依法合规开展人工智能业务,不得借助智能投顾夸大宣传资产管理产品或者误导投资者”。

六、 “+人工智能”软件的知识产权保护问题

人工智能技术赖以生存的两大核心——基础数据及算法,在著作权法保护方面存在较大的实务困难。

这是因为,基础数据大多数为非结构化原始数据,很难构成著作权法意义上的“作品”,同时,该数据的“所有权”往往又不属于数据控制方或者使用方。在实践中,大多数类似案件中,关于数据的保护,往往是寻求不正当竞争法的层面获得救济。但是,在新反法抑制反二条款适用的大背景下,未来救济前景似乎并不乐观。

而算法方面,基于著作权法“保护表达不保护思想”的原理,也很难获得著作权法有效的保护,除非对方傻到直接抄袭源代码。部分企业退而求其次,企图将人工智能算法“商业秘密化”。但是,司法实践中,反向工程往往不会被认定为侵犯商业秘密,这就给商业秘密保护路径大打折扣。

当然,有部分企业将“+人工智能”软件与传统行业硬件结合,寻求专利保护路径,似乎是一种尝试。当然,在专利化之前,将“+人工智能”软件本身申请计算机软件著作权登记,也不失为一种权宜之策。

七、结语

总之,如同“+互联网”一样,“+人工智能”本身不是一个行业,它仅仅是传统行业在新技术背景下的自然延伸,“+人工智能”的法律问题当然也无法脱离传统行业本身的法律问题。但是,不同行业“+人工智能”可能会导致应用场景及商业模式发生巨大变化,背后的业务逻辑及法律关系可能更加隐蔽或模糊,由此带来的法律合规问题或许更加复杂。所以,传统行业在“+人工智能”转型升级的同时,应当加强相关应用场景及商业模式的法律合规审查,理清相关法律关系,明确相关责任主体,划清各方责任范围,从而降低潜在法律风险。


返回列表