专栏名称: 中国人工智能学会
关注中国人工智能学会官方公共账号,收取学会的科普信息、新闻动态、活动预告及人工智能领域科技前沿信息。
目录
相关文章推荐
51好读  ›  专栏  ›  中国人工智能学会

控制与便利如何权衡?——人工智能法律规制的挑战

中国人工智能学会  · 公众号  · AI  · 2017-12-20 16:58

正文

请到「今天看啥」查看全文


自2012年起,我国的人工智能领域专利申请数量及专利授权数量均已超越美国。当研发以及专利布局更趋于完备,于企业而言,下一步便是产业化与商业化,而到那时,人工智能邂逅知识产权便可初见火花。虽然我国人工智能技术的商业应用还处于起步阶段,但仅从为数不多的公开报道的专利诉讼案件中,业内外已感受到了人工智能领域知识产权战争的硝烟。专利和专利诉讼的数量是判断产业是否爆发的两个最重要指标,当人工智能进去全面产业化的时候一定会产生大量的专利纠纷,这是知识产权制度服务于市场经济的必然,越到应用阶段,知识产权纠纷就会越多。

人工智能技术邂逅知识产权制度,已经成为不可避免的历史必然,而本期内容重点关注的是:人工智能邂逅知识产权,谁将成为主导者?


孙远钊 美国亚太法学研究院执行长

“控制既是效果也是导因,而认为控制是某种由你来施展的概念是对于进步的真正阻碍。”

一份文件、巨大挑战

国务院在2017年7月8日印发了一份名为《新一代人工智能发展规划》的通知,正式把以人工智能为导向的科技与经济发展列为中国未来的专注焦点,列入国家战略层面的系统布局,希望能借此强化自身的国际竞争力。其中,人工智能发展的战略目标是分成三个阶段:首先要求人工智能的总体技术和应用到2020年与世界先进水平同步,相关产业成为新的重要经济增长点,而相关技术应用要成为改善民生的新途径;继而要求人工智能的基础理论到2025年实现重大突破,其中的部分技术与应用要达到世界领先水平,并成为带动产业升级和经济转型的主要动力;最终则是要求人工智能的理论、技术与应用总体在2030年达到世界领先水平,成为世界主要人工智能的创新中心,并让智能经济、智能社会取得明显成效,为跻身创新型国家前列、成为经济强国奠定重要基础。【1】

《通知》对整个社会提出了一系列的巨大挑战:人们必须有效运用以工智能作为未来社会经济发展的基础,否则即可能在竞争中面临被淘汰的命运。这意味着人们日常生活与行为模式的各种基础设施,今后或将面临一次乃至多次大规模的更新改版。例如,所有的锅碗瓢杓、家用电器等日常用品以及各种交通工具都将全面“智能化”,给人们带来前所未见的便利。

然而,这也意味着许多前未曾见的问题与挑战将会出现。因此,《通知》明确要求必须“制定促进人工智能发展的法律法规和伦理规范”,包括“相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。”【2】

道德制约与法律原则

早在近代对人工知能的探索刚刚萌芽的1942年,科幻小说家艾萨克·艾西莫夫(Исаак Ю́дович Ози́мов or Isaac Asimov,1920-1992,见左下图(图片来源:互联网)已在他的小说中阐述了所谓的“机器人三定律”(Three Laws of Robotics)或“艾西莫夫法则”(Asimov’s Laws):一、机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;二、除非违背第一法则,机器人必须服从人类的命令;三、在不违背第一及第二法则下,机器人必须保护自己。【3】

后来经过一系列的调整,到了1985年出版的《机器人与帝国》(也是艾西莫夫的最后一部科幻小说)中,他又进一步把“艾西莫夫法则”演绎为对机器人的四项定律。它们是:第零法则:机器人不得伤害人类族群,或因不作为(袖手旁观)使人类族群受到伤害;第一法则:除非违背第零法则,机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;第二法则:除非违背第零或第一法则,机器人必须服从人类的命令;第三法则:在不违背第零至第二法则下,机器人必须保护自己。【4】

艾氏创造出这四项法则的原意主要是为了他的小说提供必要的框架,而其本人也对这  四项法则在具体的实践上如何能够紧密无缝地协调操作也表达了某种程度的怀疑。【5】但它们还是产生了巨大的影响,也成为欧洲联盟机器人民事法规则委员会(EU Commission on Civil Law Rules on Robotics)在2015年向欧洲议会所提呈的一项决议与相关建议事项(草案)的基础。【6】


欧盟议会已于2017年2月16日以396:123票、85票弃权正式通过了这项名为《机器人民事法规则》(Civil Law Rules on Robotics,以下简称欧盟《机器人规则》)的决议。【7】决议本身并无法律效力,还需要欧盟议会与欧盟理事会(European Council)依据“一般立法程序”(ordinary legislative procedure)的要求先责成欧盟委员会(European Commission)依据决议中的建议事项提出具体的立法草案,然后再由两个部门分别通过;如果委员会决定不采取那些建议事项时,就必须向理事会及议会提出报告和说明。【8】另外必须特别指明,这个《决议》只是要求对人工智能的“民间使用与开发”(civil use and development)予以规制,军事性的发展与用途显然不在其列。

决议在《一般原则》部分的第一条(前言第T段)明确采纳了“艾西莫夫法则”。但由于这些要求并不能真正被转化为机器语言或代码,因此还是只能对从事人工智能“机器人”的设计者、生产者与操作者而设。换句话说,整套《机器人规则》实际上的立足点还是对自然人所设置的基本道德规范,在具体的执行上目前还有着一定程度的困难,毕竟人类的道德判断与价值观本身就不是统一的,而且可以因时、因地、因人而异,非常错综复杂。【9】紧接的第二个原则一方面要维系对于危险承担、侵权责任与透明度的传统规制,另一方面又需兼顾与机器人的研究、创新和开发之间的相互平衡,便不难看出其中的微妙性与复杂性,尤其是其要强调对于“人工智能”的开发应聚焦于如何补强人类的能力(complimenting human capabilities)而非取代人类。

这意味着在具体的法律制定上,必须采取稳扎稳打、步步为营、谨小慎微的态度与做法,在没有经过充分的风险与效益评估之前绝不能躁进或冒进。【10】《决议》建议要对于“智能机器人”建立通行于欧盟地区的一套完整注册登记制度以便于管理,并从制定下列的若干法规开始:

(一)机器人工程人员的道德行为规范;

(二)相关伦理道德研究委员会的规范;

(三)设计者的认证许可;

(四)使用者的认证许可。

当以上法规制定完成后,人们方再根据“机器人”与“人工智能”的实际发展状况,适时从民事相关责任的角度推出对应的规制。《决议》在此等于确立了一个根本原则:人工智能无论如何发展,最终要受到法律规制的依然是人(无论是自然人或法人)而不是任何的机器或装置,也因此,最终如有任何可能获得某种权利但也同时要承担相关风险与法律责任的,也必须是人而非任何的机器或装置。否则,机器或装置作为可获取权利的工具,却也可能成为人类推卸责任的“替罪羔羊”,这绝不是任何立法所希望发生的情形。既有的科技法律规制一向采取“技术中立”的立场,上述基本原则不但符合此一立场,维持了整个法制体系的一致性,也是让相关的研发得以持续进行的重要保证,不至于让相关的人员与市场无所适从。【11】

“人工智能”如何定义?

既然要考虑对“人工智能”所可能会产生的问题给予某种法律规制,那么首先必须处理的就是人工智能的定义问题。欧盟议会的《决议》已责成欧盟委员会对于网络物理体系(cyber physical systems)、自动化系统(autonomous systems)、智能自动化机器人(smart autonomous robots)以及它们的附属类型等提出适用于整个欧盟的一般性定义。《决议》并列出了五个关于“智能机器人”(smart robot)的特征来做为考量:

(一)通过感应器和/或与其周围环境的信息交换(互连性interconnectivity)所获得的自我管理能力(autonomy)以及对于这些信息的交换与分析;

(二)从经验与互动中的自我学习(可供选取的非必要条件);

(三)至少具有少许的物理支持(a minor physical support);

(四)使其行为与行动适应于周围的环境;

(五)不具备生物学意义上的“生命”。

在欧盟内部针对这个《决议》草案文本所提出的相关论证报告中,可以看到从一开始人们在名称的使用上便产生了相当大的争议。报告认为,使用“智能机器人”这样的名称本身就具有极大的挑战性,因这为会误导人们认为相关技术的发展将与文明社会直接产生冲突。报告建议考虑仅使用诸如“自我管理性机器人”(autonomous robot)等较具关联性的名称(但这类建议最终显然未被接受)。此外,基于科学与文化的理由,报告认为在《决议》中提及所谓的机器人意识与“艾西莫夫法则”是错误的,因为那只是作为小说的架构基础,在先天上就注定会有相当程度的含混不明之处,完全不适宜作为法律的规制;而且那也仅是针对机器的操作功能而设,事实上既无法转化为可供操作的机器语言,也无法对从事设计的工作人员做出有效的规制。【12】

此外,上述所列举的五项特征显然避开了一个关键而困难的考量因素:人为控制。究竟一个机器或装置要在何种程度上摆脱人为或外部的控制(取得独立性),才算是具备了“人工智能”?这一问题恐怕在先天上和技术上就寓含了许多难以解决的困难。例如,从事医疗的纳米装置(nano-devices),其本身就同时具备了侦测、器官修补与施打药物等多重功能。这样的装置也是一种超微型机器人,每一个单位都蕴含了相当规模的大数据和自我操作能力。这种装置大量注射到人体中后,可以直接穿透细胞壁与细胞膜,而与细胞核内的去氧核糖核酸产生互动,从而进行标靶式的精准治疗。但也正是如此,就更加需要外在的人为监督与控制,以确保整个操作在有序的状态下进行。换句话说,表面上这些微型机器人在血管里跑来跑去,貌似在做它们自己该做的工作,没有受到任何控制;但从某一个角度来说,控制发生在机器人注射到身体之前,计算机程序从一开始就设定了机器人可操作的范围,那么在这种情形中,可否视为机器人仍然受到某种控制?

“人工智能”是否应赋予“人格”?

参酌美国联邦政府的分析,当前关于“人工智能”的研究与发展已经经过了两波的发展,而目前很可能正在展开第三波的进程。【13】

实际的情况是,“人工智能”还都是为了服务于人而设(因此与其照英语的字面翻译为“人工智能”,倒不如称为“智能人工”更为贴切),所有的“人工智能”或“智能机器人”在先天的设计与定义上最终都不能完全摆脱人的控制,从而至少在可见的未来,在法律规制上也难以享有独立的“人格”。如同所有人在生理上的各项感知与功能都由自主与非自主两个系统所组成,两者必须相互搭配、相辅相成。但在法律规制上,并不因为另有一个极为精巧、平行存在而且几乎完全不受个人意志控制的非自主神经系统,法律就必须赋予每个人两个人格权。“人工智能”就犹如人类非自主神经系统与功能的延伸。

从一个反向的视角来思考,在探讨究竟是否要对“人工智能”赋予任何法律地位乃至权益之前,或许需要处理的先决问题是:一旦人工智能造成了问题或损害,如果能够证明其符合侵权行为的要件,那么究竟应该由谁来承担风险与损害赔偿责任?须知机器或装置完全没有辨别是非的能力,更无从“了解”其从事特定工作或行为的性质为何,完全不具有任何能够承担责任的“健全神智”(sanity)或“行为能力”可言。对于人的行为(作为或不作为),法律也需要先确定当事人具有行为能力才课以相应的义务与责任。所以,至少在可预见的未来,具有“人工智能”的机器或装置本身是既不需要也根本无法承担危险或肩负责任的。

接下来的问题是:对于幼儿或心智耗弱的人而言,虽然法律上只给予限制行为能力,但基于人人平等与保护社会弱势族群的基本公共政策,法律仍对未成年人赋予人格权与受限的财产权,在具体的权利行使上则必须经由其监护人的许可。【14】那么对于“人工智能”而言,是否也要将其视为“弱势族群”而给予相当于未成年人的人格与财产权保护,然后由其开发者或所有人来担任“监护人”,承担部分或全部的义务与责任?无论采取何种政策,都将对未来的法制发展造成相当大的冲击。不过至少在特定机器或装置所能处理的范围内而言,其强大的功能,恐怕会使得人们很难再将它们视为“弱势”了。

“人工智能”能否开创知识产权?

可以确知的是,“人工智能”在可见的未来仍将只作为辅助性的工具。固然对于“人工智能”本身的开发、设计、后台的软件操作程序等等或有可能获得专利权、著作权或是商业秘密的保护,那么,人工智能所开发或生成的作品是否能够享有知识产权呢?

以著作权为例。《伯尔尼公约》在第一条便开宗明义地指出,该公约是“为保护作者对其文学和艺术作品……”而制定的,通说认为这就已经明确了著作权的保护制度是为了保护自然人(作者)的创意作品而设。【15】美国版权局在其最新(第三)版的《美国版权局实践指南》中也特别表明了此点,并针对猿猴自拍照所产生的问题例示其不受著作权的保护。【16】因此,除非特定作品能具体指向特定的“人”为其作者,目前在美国,凡是纯粹由“人工智能”所开发出来的创作都无法获得著作权而直接进入公共领域。欧盟议会的《决议》只是提出了一些呼吁其委员会未来在拟议立法草案时应该在知识产权方面注意到的一些基本事项,但并未直接触及这个问题。

对此,已有中外学者认为,由“人工智能”所生成的内容只要符合了“独创性”的要求,就可视为代表其设计者或开发者的意志所产生的创作,并由该“人工智能”的所有人(包括投资人)或开发人获得著作权,否则在欠缺激励的情况下,“人工智能”的所有人或开发人将欠缺甚至不再具有持续投入研发的积极性(有些类似“职务创作”的概念)。【17】不过这个主张恐怕还需要克服一些难点:既然“人工智能”是通过摘取并组合相当数量的人的知识、意见、思维与观点等所汇集而成的大数据所组成,那么是否所有(或至少是“主要”)的“贡献者”也应该被视为共同的开发者,从而相关的任何权益(包括著作权)也应该由他们来共享?反过来说,如果主要的参与者或贡献者无法从中获得相应或符合一定比例的权益,那么是否也会导致他们因为欠缺激励而失去参与的积极性?然而如果一项权利是由多数人所共享,是否又意味着该权利名存实亡,因为这很容易大幅增加交易成本,从而导致难以从事后续性的许可或其他使用(至少潜在的合作对象很可能会望之却步)?无论如何,这是个非常值得关注的问题。由于知识产权一向关乎非常微妙的动态性平衡,相关举措必须谨小慎微、步步为营,尤其需要借助各种的实证调研与分析来论证。另外必须注意的,前述相关问题是未来全球都要面对的挑战,闭门造车无益于解决问题,人们应通过国际性的对话机制(例如世界知识产权组织或世界贸易组织等)来集思广益。

控制与便利的平衡

最近的一条流行语是“未来已来”,用这四个字形容“人工智能”领域尤其贴切,而“未来来自过去”的说法则与其更加贴合。人类对于数据信息的储存和使用可以至少上溯到一万八千多年以前【18】,而现代意义上的“大数据”使用(运用计算机技术)则可至少追溯到1881年美国联邦政府对人口调查数据信息的处理。【19】到了二十一世纪,我们更是见到了数据信息的爆量产出。谷歌公司的原行政总裁艾瑞克·史密特(Eric Schmidt)曾在2010年的“科技经济会议”(Techonomy Conference)的演讲中表示,截至当时,人类每两天所创造出的数据或信息量就等同于人类文明创始到2003年的信息总量。【20】时至今日,信息量的飙速累积更是远远超出了人们的想像。

物极必反,对所有的政府、企业、研究机构乃至消费者而言,在面对不可思议的浩繁数据信息之时,必然无可避免地会遭遇到两难境地:如果真能坐拥天下所有的信息,事实上却形同一无所知,因为如此庞大的信息量只会让人茫然不知所从;反之,如果没有办法掌握到任何的信息,也自然形同盲哑喑聋,无法做出正确的研判,让自己失去竞争力。【21】因此如何能去芜存菁,在这两者之间找到一个符合成本效益的平衡,并做好系统性的管理、分析,已经成为所有人都无法回避的挑战。从社会公益的立场而言,前述问题也成为如何避免加剧贫富与文化、教育差距的试金石。

对于所有的消费者而言,将来“所有权”的概念恐将益加“空壳化”,表面上的“拥有”已经不再具有如何实质性的意义。例如,以往购买锅碗瓢杓起码可以用上十年甚至更久,对于制造商这都属于“耐久性”的产品(durable goods),必须不断去开发新的消费族群才能维持一定的运营。但是在可预见的未来,由“人工智能”作为后台支撑的“智能产品”,为了让锅与炉灶能够连通对话、控制火候,所有的锅炉都会加装芯片并受到来自某个“云”的软件程序所操控,而且不定期就必须有所更新。结果一个本来可以用到十年的锅,却可能因为相对应的软件不再支持,而每隔三、五年就得更换一次。此时“耐久性”已在不经意间转化成了“更新性”,制造商可以取得更多次的获利。所有权被“知识产权化”,各种买卖实际上逐渐被“使用许可”给替代,对于任何产品的使用方式与持续时间都掌握在他人的手中,并依靠各种智能软件的平台和运算来“决定”,无论是锅碗瓢杓、打印机或是电子书,乃至出门乘坐的交通工具,甚至自己的居所等等,将莫不如此。

这样的产品“购买”(或“许可”使用)与使用方式其实早已行之有年,上述对智能产品的描述,不正是目前人们对于智能手机、电脑与打印机等装置使用方式的写照?而其背后最重要的操作,就是通过对个人或其他各种相关信息的获取(从而可以累积为所谓的“大数据”)来换取更为精准到位的服务。换句话说,这就是消费者必须放弃对各种信息的控制,或是说让厂家取得对信息更多的控制来换取自身的便利(虽然有的功能消费者可能完全不需要)。同样的情况更凸显在以“共享”为标榜的服务上。现时风靡的“共享单车”很可能只是未来“共享汽车”(而且是自动驾驶)乃至其他各种大众服务的序曲。【22】为了竞争,通过“人工智能”对大数据的操作管理,每一辆到府接送的自动驾驶汽车都将走向完全为使用者量身订制的“客制化服务”,当乘客上车时可能会发现车内已调整为乘客所喜好的颜色、座位距离、温度与湿度,乃至于播放乘客所喜欢的音乐或其他娱乐节目等等。但这样的愿景同样必须以乘客自愿放弃或提供其个人的各种相关信息作为前提。

因此,未来的相关法律规制也就有必要适当有效地在控制与便利之间寻找适当的平衡。人们究竟是否愿意为了自身的种种便利、安全或其他考虑而将原本要由自己做出的判断或决策转交由人工智能装置来从事,从而也必须随之失去一部分对于自身相关事物(与事务)的控制?除了上述对于如何定义、如何拟制为人的问题外,目前在法律规制的层面,我们还可以看到的最具关键性的问题,大约存在于隐私权的保障、不同平台数据库之间的横向交叉运用与管理、知识产权的赋予和维权以及各种智能产品的瑕疵担保与侵权责任(包括在进入全自动化之前的过渡阶段的风险承担、损害赔偿责任与黑客破坏造成的重大危害或损失等)配置等四个面向。这都需要人们一方面未雨绸缪、悉心论证,另一方面提出各种备案,以供随时讨论立法。【23】

结论:两个反思

这个平衡的探索过程,至少会引发两个反思。第一个反思可追溯至英国人亨利·迈因爵士(Sir Henry J. S. Maine)在十九世纪中叶所出版的巨著《古代法》。他在这部巨著中以一句简短的描述,对整个人类法制的进程做出了一个经典性的总结:“迄今为止,社会进展的走向就是从身份到契约的运动。”【24】其中所寓含的一层意义是,整个社会的互动和交易已经从垂直走向了水平,也就是从以往只论出身的社会阶层高低从而得以享有不同的待遇,走向人人平起平坐的对等互动,在不违反公共政策的情形下,甚至还可以用私人间的合同(自律)取代法律的规定(公律),而且在公共政策上还考虑到消费者往往是处于某种相对弱势的地位,因此刻意矫枉过正,通过制定诸如《消费者权益保护法》等特别的立法来抬高消费者的协商议价地位,例如制造商对所有购买者的产品瑕疵承担责任等规定。

然而对于以“人工智能”所带动的产品或服务而言,“许可”势将在相当的程度上取代传统的买卖成为一切交易互动的基础。在先天和本质上,任何“许可”协定都是一个“不平等条约”,与买卖的法律关系迥然不同。这样的发展是否意味着人们其实又逐渐的从契约走回到了身份(虽然此处的“身份”与两千年前的状况已然有所不同,但却又有些惊人的近似性,例如,按照使用者不同的付费层级享有截然不同的服务内涵)?

第二个反思是一个假设性、纯粹学理上的问题,但却反映出一种潜在隐忧。假如欧洲在历史上没有经过一千多年的“黑暗时代”,也就是假设在莫札特所处的十八世纪就已经出现了今天所能看到的各种科技,那么他是否会利用这些高科技工具在他短暂的34年生命中创作出更多不朽的乐曲?抑或他反而会沈迷于各种网络赌博、游戏与社交网络等(据一些传记的描述,莫札特颇好嬉游赌博),反而成为一个默默无名、对社会无大贡献的潦倒汉?换句话说,工具的便利性是否果真会带动更多的创新?

这当然是个无解的问题,不过至少有一点可以确定,就是莫札特已经把他所有的音乐作品都写到了纸上,从而使其完整地保留了下来。否则,如果他适用了当时流行的科技来储存文档,后人很有可能根本无法从那些已经被完全淘汰掉的载体(例如读卡机、软碟等等)中重新读取他的作品了。这也就提醒我们,人类一方面貌似在开创各类新型的大数据,但在另一方面,也同时不自觉地大量丢失各种宝贵的信息数据,导致自己的固有文化资产不断流失。因此,各种大数据之间未来如何能彼此顺利无缝的接轨,又能如何平稳顺利地从一个技术平台过渡升级到另一个新的平台,都将是对“人工智能”运行的巨大挑战。总而言之,从“大数据”到“共享经济”到物联网(Internet of Things),再到自动化机器人和“人工智能”,其法律规制或将不断涉及控制与便利的拉锯、交换与权衡。在这个快速发展的过程中,由于还有太多不确定的因素,政府固然需要扮演某种角色,但为了避免对于其中的微妙平衡造成不当干扰,尤其是不当地扼杀相关的研发与商机,政府必须做到谨小慎微、步步为营。因此,当前阶段,政府相关法规的岀台不宜太快,而应刻意保持一定程度的滞后。如果确有需要制定规则,那么,在相关的定义还尚未明确之前,政府只适合从事框架式的“轻度规制”。打比方说,政府只需要规范关于环境保护、操作与人身安全以及基本责任承担的框架性规定即可,至于究竟是谁要在这样的框架内来搭建相关的平台、需要多少投融资、如何设计建设平台,则悉由参与者依据市场的实际状况而定。一旦平台搭成,由谁来登台表演、演出何种节目等,政府都不需置喙,也应交由市场去自行决定,这就是所谓的“让凯撒的归凯撒”。唯有如此,才能有效地释放出巨大的动力,帮助达成国务院《新一代人工智能发展规划》所提出的挑战与目标,把中国的整个市场引领到一个新的境界!

“控制既是效果也是导因,而认为控制是某种由你来施展的概念是对于进步的真正阻碍。”

——史蒂夫·格兰德【25】

注释:

1 国发〔2017〕35号。

2 同上注,五、保障措施之(一)。

3 Issac Asimov, Runaround, collected as Chapter 3 in I, Robot (1950), at 20.

4 Issac Asimov, Robots and Empire (1985), Chapter 18, The Zeroth Law, at 92.

5 因为这四项原则几乎无法被转化为可操作的机器语言或程序代码,即使可以如此操作,也寓含巨大的潜在风险。典型的例子呈现在斯坦利·库布里克(Stanley Kubrick)在1968年所导演、制作的经典电影及其之后与科幻小说作家、未来学学者亚瑟·克拉克爵士(Sir Arthur C. Clarke)所共同创作的同名小说《2001:太空漫游》(2001: A Space Odyssey)之中。科学家在人工智能的电脑中同时植入了两个最高指令:听从人类,完成人类的任务。然而科学家却从未预料到,当这两者产生矛盾时,人工智能究竟要如何取舍?于是在影片,中电脑无所适从,发生了种种严重的问题。此外,也正是以降低人员的伤亡为由,许多国家的国防部门早已经开发出专门从事不同形式的战争格斗的机器人或人工智能技术(装置),这也与此处所标榜的核心价值与精神完全背道而驰。

6 Committee on Legal Affairs (Rapporteur: Mady Delvaux), Draft Report with Recommendations to the Commission on Civil Law Rules on Civil Law Rules on Robotics, 2015/2013(INL),

7 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), P8_TA(2017)0051, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//EN.

8 Treaty on the Functioning of the European Union, Articles 288, 289, and 294, [2010] O.J. C 83/1.

9 Id., Charter on Robotics, Annex to the Resolution: Recommendations as to the Content of the Proposal Requested. 不过至少自本世纪以来,已有不同的国家和单位投入了相当的资源来研发对人工智能训练近似于人类的“道德认知”与辨识以及“价值判断”。参见Simon Parkin, Teaching Robots Right from Wrong, The Economist 1843 (June & July 2017), at 64.

10 Id., ¶ X (“a gradualist, pragmatic and cautious approach ⋯ should be adopted for the Union with regard to future initiatives on robotics and AI so as to ensure that we do not stifle innovation”).

11 “技术中立”原则不是绝对的。如果参考美国的立法与司法实践,其中至少有一个重要的例外:如果某个机器或装置,无论是以什么形式为名或贴上如何的标签,如果其主要的商业目的是从事或帮助他

人从事侵权或具有伤害性的行为,或是除了从事侵权行为或目的以外并无任何其他商业上的显著目的可言,那么此一原则便不适用。参见17 U.S.C. § 1201(a)(2); Sony Corporation of America v. UniversalCity Studios, Inc., 464 U.S. 417 (1984)(The “Betamax” Case)。

12 Directorate-General for the Internal Policies, Policy Department C: Citizens’ Rights and Constitutional Affairs, European Civil Law Rules in Robotics Study (October 2016), at 8-13 (Author: Nathalie Nevejans, Université d’Artois, Centre de Recherche en Droit Ethique et Procédures).

13 吴汉东,人工智能时代的制度安排与法律规制,《法律科学》,2017年第5期,第128页,网络版载于《中国法律评论》,http://www.weidu8.net/wx/1013150164625684。

14 《民法总则》第十八条至第二十四条。

15 Adolf Dietz, The Concept of Author Under the Berne Convention, 155 Revue Internationale Du Droit D'auteur (R.I.D.A.) 2, 10-12 (1993).

16 U.S. Copyright Office, Compendium of the U.S. Copyright Office Practices (3rd Ed.), § 313.2 (2014); Burrow-Giles Lithographic Co. v. Sarony, 111 U.S. 53, 58 (1884). 然而关于这个由一个几内亚的黑冠猴(Crested Macaque)拿着摄影师大卫·斯雷特(David Slater)的器材所拍出的一系列“自拍照”(selfies)是否具有任何的著作权的问题并未就此停歇。美国“人道对待动物协会”(People for the Ethical Treatment of Animals , PETA)已经出面代表该自拍的黑冠猴(并替其取名为“纳汝投”Naruto)起诉,试图改变既有的司法判例。但联邦地区法院北加州分院并未接受,判决原告方并不具有任何的著作权。参见Naruto v. Slater, Case No. 3:15-cv-04324 (N.D. Cal. 2016)。本案原告目前已将全案上诉至联邦第九巡回上诉法院(U.S. Court of Appeals for the Ninth Circuit)候审。

17 Kalin Hristov, Artificial Intelligence and the Copyright Dilemma, 57 IDEA (J. of Franklin Pierce Center for IP) 431 (2017);熊琦,人工智能生成内容的著作权认定,《知识产权》(2017年第3期),第3页。

18 已知最早的人类数据存储和计算物证是比利时的地理学者Jean de Heinzelin de Braucourt在1960年在乌干达(当时仍为比属刚果)所发现的伊桑戈骨(Ishango bone)。

19 美国联邦人口调查局(U.S. Census Bureau)基于法令的要求每十年要做一次全国性的调查,但经年累月所积压的数据信息已让该局的工作严重滞后,当时预期用人工操作至少要十几年的时间才能完成上一次的数据分析,这就意味着分析还未岀台前就已经完全过时,新的一批普查调研信息又已经堆叠上来了。于是在当年普查局的一位年轻工程师赫尔曼·何乐礼(Herman Hollerith)发明了“何乐礼打孔卡片制表机”(Hollerith Tabulation Machine),仅三个月就处理完了需要十年以上的工作量。而何乐礼离开政府岗位后就在这个发明的基础上创业,经过一次并购最终改名成为国际商业机器公司(International Business Machine Corporation, IBM)。参见Bernard Marr, A Brief History of Big Data Everyone Should Read, World Economic Forum, 25 February 2017, https://www.weforum.org/agenda/2015/02/a-brief-history-of-big-data-everyone-should-read/。

20 MG Siegler, Eric Schmidt: Every 2 Days We Create As Much Information As We Did Up To 2003, TechCrunch, August 4, 2010, https://techcrunch.com/2010/08/04/schmidt-data/. 不过史密特的原话当中所引述的信息总量是否正确则引发了相当的争议,因此在本文中不予摘引。参见Robert J. Moore, Eric Schmidt’s “5 Exabytes” Quote Is A Load of Crap, Data Point, February 7, 2011, https://blog.rjmetrics.com/2011/02/07/eric-schmidts-5-exabytes-quote-is-a-load-of-crap/.

21 Paul Hemp, Death by Information Overload, 87 Harvard Business Review 82 (September 2009), https://hbr.org/2009/09/death-by-information-overload; Julian Birkinshaw, Beware Data Overload:Don't Let Analysis Paralysis Stunt Your Business, The Guardian, April 21, 2017, https://www.theguardian.com/small-business-network/2017/apr/21/big-data-overload-analysis-paralysis-stunt-business-growth.

22 所谓的“共享”或“协作”经济(sharing or collaborative economies),在名称上一直存在争议。例如,“共享”单车其实就是自行车的租赁服务,根本不是把他人闲置不用的自行车拿来使用。为了厘清其中的相关问题,美国联邦商务部在2016年曾拟议使用并聚焦在“数字搭配企业”(digital matching firms)来做为替代。参见U.S. Department of Commerce, Economics and Statistics Administration and Office of the Chief Economist, Digital Matching Firms: A New Definition in the “Sharing Economy” Space (June 3, 2016)。

23 司晓、曹建峰,论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点,《法律科学》,2017年第5期,第128页,网络版载于《中国法律评论》,http://www.sohu.com/a/163393878_455313。

24 Sir Henry J. S. Maine, Ancient Law: Its Connection with The Early History of Society and Its Relation to Modern Ideas, Chapter V (1861).

25 “Control is as much an effect as a cause, and the idea that control is something you exert is a real handicap to progress” Steve Grand, Creation: Life And How To Make It (2000), at 25.


作者: 孙远钊 美国亚太法学研究院执行长

来源:《中国知识产权》杂志总第129期封面故事 ——“ 人工智能邂逅知识产权,谁将成为主导者?”

策划:《中国知识产权》杂志中文编辑部


《知产观察家》

一档全新的知识产权行业对话式新闻评论节目

第八期:

开发APP你真的想好名字了吗?

点下方“ 阅读原文 ”访问《中国知识产权》杂志网站







请到「今天看啥」查看全文