用心服务 温馨提示

作者认为:中华法系是礼法体系。

[3]可见,无论在民事领域中,还是刑事领域中,国家政策都发挥着重要的作用。从法律与政策关系的历史演变可以看出,将制定国家政策的权力界定为行政权,符合政策的本来意义。

用心服务 温馨提示

2.司法实践中国家政策的运用特点从司法实践来看,国家政策主要在金融、住房、劳动与社会保障等领域发挥作用。正如有学者指出的,在英美法系,公共政策本质上是指以公共利益为考量的法律政策,英美法之所以将公共政策确立为法源,其并非是基于公共政策的制定者具有立法权的考虑,只是公共政策的公益保护属性直接赋予了其法律渊源的品格。如果立法机关制定的所谓立法政策具有普遍的规范效力,那么它应属于立法性决定,甚至可以被视作法律;若所谓立法政策不具有普遍的规范效力,那么其也并非法律意义上的国家政策。通过行政权制定国家政策,在实现国家、政府和社会治理职能和规范社会秩序方面起到了难以替代的作用。例如,人民调解法第3条规定,人民调解委员会调解民间纠纷,应当不违背法律、法规和国家政策;妇女权益保障法第75条规定,乡镇人民政府应当对村民自治章程、村规民约,村民会议、村民代表会议的决定等进行指导,对其中违反法律、法规和国家政策规定,侵害妇女合法权益的内容责令改正。

比如,反恐怖主义法第81条规定,利用极端主义歪曲、诋毁国家政策、法律、行政法规尚未构成犯罪的,要给予拘留或罚款的处罚。被司法机关识别为国家政策载体并予以适用的规范性文件,大多是为回应政治、经济、社会等各方面的变化,应对各种具体问题所发布的决定和命令。百度也试图通过爬虫协议(Robots)拒绝360搜索。

针对外部性,一种解决方案是通过国家规制进行调整,如通过庇古税来增加边际私人成本,从而实现社会成本等内部化(internalization of social cost)。更为合理的制度设计是,将这类作品视为公共领域作品,允许公众与企业对其进行一般利用。在个人信息保护中,对此类信息进行特殊规定,符合个人信息保护的一般原理。在有的情形下,这种个体认知与选择的困境会造成保护不足,使个体难以真正预防相关风险。

当个人面对信息处理的复杂实践,个人往往难以理解其真正面对的风险是什么,[9]个人常常要么是无奈选择同意信息处理者的隐私政策,要么能拒绝的尽量拒绝。[92]数据可谓人工智能时代的公共性难题,此类难题的关键在于,如何在保护个体或企业合法权益的同时,实现数据的聚合与互联。

用心服务 温馨提示

[51]当其他中小企业难以获取数据时,这些超大型企业总是可以利用用户协议和生态系统而获得海量数据。而且,人工智能所依赖的数据还常常需要及时更新,保证其正确性,而数据库或专利池所收集的数据则常常不具备这类特征。[68]当然,著作权作品如果发生大规模泄漏,可能会让这类作品出现容易被盗版(exposure-to-piracy)的风险,但这类损害一般不被法院认可,参见Authors Guild v. Google, Inc., 804 F.3d 202, 227(2d Cir.2015)。[19]除非企业或个人设置密码等保护措施,用户终端一旦接入互联网,就意味着终端数据向所有用户开放。

欧盟的《一般数据保护条例》虽然被认为是史上最严格的法律之一,但其将控制者或第三方的正当利益作为处理个人数据的合法性基础之一,为个人信息的合理利用提供了更多途径。就像摄影技术的发明替代了传统的人像绘画师,但并未替代具有创造力的各类画家。数据库或专利池通过对大量作品或专利进行汇集,为使用者提供集中许可,的确可以大幅减少数据使用者的交易成本。毕竟,很多超大型的互联网企业都拥有自己的数据源,无论是百度、谷歌(Google)这样的搜索引擎企业,微信、脸书(Facebook)这样的社交企业,还是阿里、京东、亚马逊(Amazon)这样的电商企业,都可以通过海量用户所上传的内容而获取大量可以供人工智能进行训练的数据。

[6]例如,很多手机品牌以白人或亚裔的人脸为基础进行训练,导致对黑人的拍照效果非常有限。对于非生成式人工智能,其对著作权作品数据的利用应被视为合理使用。

用心服务 温馨提示

一方面,虽然互联网具有公共性,但允许互联网企业进行合理自治,特别是对自身生态系统进行半封闭性管理,有利于打造多样性的互联网生态。1.个人信息个人信息保护制度中的告知同意首先对数据收集形成了挑战。

[34]但到了大数据特别是人工智能时代,个人信息所面临的场景已经大不相同。在法律上,财产的私有制是更为一般性的原则,公共互联的财产则主要限于某些特定物品,例如,公共道路、公共食堂、湖泊、河流。著作权制度起源于二百多年前,这一制度本身具有很强的合理性,尤其对于农业社会与工业社会的知识生产,著作权可以保护创造者的人格与劳动,提供有限激励。从人工智能促进的角度,可以进一步指出,过度依赖个人同意将把大量并不存在风险的数据排除在利用之外,不利于个人信息的汇聚与合理利用。为此,对于合理的数据爬虫不应施加过多限制。生成式人工智能可能产出大量普通用户可以完成的作品,但这一现象也会促进互联网用户发展更具有个性特征、更具有创作力的作品。

例如,在科技与操作系统行业,苹果系统采取半封闭的生态系统,使得苹果系统在开放性方面逊色于安卓系统,但在安全性稳定性方面却远胜安卓系统。这类确权不仅妨碍数据的大规模汇聚,而且可能对中小人工智能企业带来不成比例的困难,形成更严重的数据不公。

对于此类风险,我国与欧盟都进行了类似规定。[89]最后,法律应通过行业自律等方式,在允许互联网企业自治的同时推动企业之间的互联互通。

对于各类著作集体管理组织而言,这些组织主要集中于传统著作权保护的领域,对于大量互联网等普通用户所创造和上传的数据很少保护。[58]即使是个人信息保护极为严格的欧盟,也在《一般数据保护条例》的重述中规定,在分析目的限制与最小化原则时,有必要考虑原始处理和新处理之间的任何联系、数据主体的合理期望、数据的性质、进一步处理的后果以及是否存在安全保护。

其次,必要性原则也可能对数据收集与利用形成挑战。再次,法律应对公开个人信息保护适用特殊规则。当然,无论是哪种类型的人工智能,其对数据的收集与利用都不能破坏有效协议或技术措施。从比较法的经验来看,也可以得出上述结论。

美国对于合理使用的判断依据四要素标准,通过多年的司法实践,[74]法院逐渐将机器阅读排除在著作权法之外。[63]2.著作权对于涉及著作权数据的人工智能利用,可以首先将人工智能区分为生成式人工智能与非生成式人工智能。

由于互联网企业被认为经常可以跨界经营,即使业务非常不同的两个互联网企业,也可能会因为数据爬虫而被认定为不正当竞争。而数据的行为主义规制则预设数据的互联,将某些行为排除在外。

此外,自从皮埃尔·莱瓦尔(Pierre Leval)法官发表《迈向合理使用准则》一文以来,使用目的成为了美国司法裁判的压倒性标准。造成中文人工智能训练数据问题的原因具有多重因素,但法律制度是其中重要原因。

网络互联机制也面临路径依赖的难题。另一方面,在人工智能的数据利用端,应对人工智能施加更为严格的数据保护职责,要求人工智能承担更多的社会责任。人工智能的发展需要数据的大规模汇聚,这进一步强化了对公开信息进行特殊规制的需求。[43]在互联网兴起后,数据的公共性特征得到了进一步关注。

例如,以英文内容为主的Common Crawl等公共数据项目以及维基百科(Wikipedia)、社交新闻站点(Reddit)等网站为国外人工智能发展提供了充分的高质量训练数据,而高质量中文数据集建设却仍不成熟,难以为中文人工智能提供同等水平的训练数据。互联网企业的这类做法有各自目的,有的是为了打造自身的封闭生态系统,有的是为了竞争目的,有的是为了安全目的,但无论如何,这类做法都使得互联网出现了数据孤岛现象,数据无法互联互通。

[88]在学术研究和讨论中,很多学者也指出,数据爬虫应当类比进入对公众开放的商店,其合法性应当按照此类空间中的社会规范决定,而非类比为侵犯私人财产。例如,个人信息保护制度高度依赖个人控制论或个人信息自决论,著作权上的人格性权益与财产性权益也具有较高的排他性,互联网企业也对其数据主张排他性控制的权利。

[17]对于这些作品,如果著作权人不主张权利,人工智能企业可能没有什么风险。【注释】[1]相关研究,参见马长山:《人工智能的社会风险及其法律规制》,载《法律科学》2018年第6期。

金昌市
上一篇:社保基金4年最多投2500亿入实业
下一篇:2024年巴黎奥运会火种采集成功