Deepseek火了!
尤其是“Deepseek锐评”文体,更是刷爆朋友圈。大家纷纷跟风,让Deepseek锐评中国社会学家、明星,甚至各种社会现象。
但是,你在让Deepseek锐评别人的时候,有试过让它也锐评你自己吗?你觉得Deepseek对别人、对自己的锐评,到底合不合适呢?如果你锐评的人看到评价,会不会生气呢……
当我们开始质疑这类AI“锐评”对不对、合不合理时,实际上已经进入了
“机器人伦理学”
的讨论范畴。
怎么理解“机器人伦理学”?简单讲就是
:
谁负责?当你
一问“
道德责任
”,就会发现这背后太深了:
这是现在国际上伦理与社会理论研究界非常火的题目。我们爱丁堡大学哲学系有位教授就以这个课题,拿了几千万资助的项目!
为了更好的思考这个议题,特别推荐
南京大学社会学院郑作彧
教授
惠赐的这份译稿:来自德国哲学家Toni (Janina) Loh的著作《机器人伦理学导论》的前言。Loh教授是
波恩-莱茵-锡格应用科技大学的应用伦理学教授,研究领域聚焦于伦理与转
型议题。这本
Roboterethik. Eine Einführung
于2019年由
Suhrkamp出版社出版。
目录
前言
1. 机器人领域及其伦理问题
2. 机器人伦理学的研究领域
2.1 作为道德行动主体的机器人
2.2 作为道德行动客体的机器人
2.3 含括性的取径
2.4 批判性的中间考察
3. 人-机器人互动的责任归属
3.1 机器人作为责任主体
3.2 机器人作为责任客体
3.3 责任归属的含括取径
3.4 批判性的中间考察
4. 结语:关于含括与批判性的论述总结
前言
从二十世纪中叶开始,机器人就开始进入到越来越多的人类生活领域里。从第一台机器人“Unimate”
[1]
运用在工业上,到军事与战争的进行,再到现在的各项服务业、看护、医疗、家事,不论是今天、还是可预见的未来,机器人都占有一席之地。
在制造机器人以及与机器人交往的过程中人们会遇到的各种道德问题,便是“
机器人伦理学
”这项哲学领域的讨论主题。常常人们直觉上会觉得技术是中立的,但机器人伦理学相反地认为,
技术一般来说是人类生产行动的结果,因此总是(有意或无意地)亦为规范与价值的结果
。
* Unimate(图源:robotsguide.com)
行动正是因为有意图,所以不同于本能的行动或单纯的行为
(Anscombe 1957; Bratman 1987; Davidson 1980)
。价值也会经由意图而被刻写进行动中。人类会基于理由而在不同的行动选项中选择进行某个行动,而行动的理由是在行动之前或隐或显地对各种理由进行权衡之后得出的。
机器人是一种特殊的技术
[2]
,当中发挥作用的价值和其造成的后果也总是会带来道德问题
(关于所谓的“技术中立命题”,亦可见本书第四章)。
接下来几页,我首先将介绍
机器人伦理学和哲学领域内其他伦理学相比的独特之处
。接着我将探讨在哲学外部,机器人伦理学与非哲学的其他学科有什么亲近之处。最后会介绍机器人伦理学的议题与问题,以及本书架构。下文也将会进一步交代“机器人”的(对于本研究而言的)定义。
*本书作者
Toni (Janina) Loh
(图源自网络)
在哲学内部的独特之处:机器人伦理学在所谓的西方文化圈(以下的详细讨论都仅局现在西方文化圈)内部,确切来说是一个相对年轻的领域伦理学,附属于机器伦理学底下的次领域伦理学。因为
所有的机器人都是机器,但反过来不是所有机器都是机器人
(Loh 2019a)
。
将机器人伦理学视为(次)领域伦理学,其立论基础在于将伦理视为对人类来说具有特殊性的行动范畴。自亚里斯多德以来,哲学的伦理学一方面致力探究人类的风俗、习俗、习惯,另一方面则旨在探讨美好生活,并对人类实践进行科学反思,建立好坏行动的判准。伦理学的前提是,只有人才是一种会进行行动的存在,
人类的所作所为不是盲目的本能与驱力所推动的,而是透过意图、规范、理由而形塑的
(Aristoteles 2006)
。
领域伦理学
[3]
牵涉到两个类型
:一个涉及的是与非人类对象相处时的伦理,这部分除了机器与机器人伦理学之外,也还包括动物、植物、环境、计算机、乃至于一般的技术伦理学。和机器人伦理学很像,动物伦理学关注对动物进行培育、驯化、饲养时,一般性地与动物相处,以及人与动物之间关系等方面的道德规范准则
(Beauchamp/Frey 2011; Regan 1983; Schmitz 2014; Singer 2015)
。
机器人伦理学家冈克尔
(David Gunkel)
曾指出机器人伦理学和动物伦理学特别有亲近性,因为“
机器问题就是动物问题的反面
”
(2012: 5)
。笛卡儿就曾将动物和机器放在同一个本体论地位上
(Gunkel 2012: 3)
。一直到二十世纪,动物的身份被提高,动物与机器在本体论上的同等地位才被扬弃掉。
*
冈克尔
(David Gunkel)(图源:网络)
另外一种领域伦理学的类型,则包含了关于人类生命特殊领域的伦理系统,强调在
人类日常生活中通常被赋予另一种地位的伦理系统中价值的存在、规范的有效,并提出当中的规则
。医药伦理、人道主义干涉伦理、战争伦理、经济伦理、国际关系伦理,都是这种领域伦理学的形式。这第二种类型不是本书主要探讨的类型。
不是所有人都会像这里所介绍的这样来理解机器人伦理学。例如班德尔
(Oliver Bendel)
就不认为机器伦理学是一种领域伦理学,而是认为它“
和人类伦理学平起平坐
”,虽然他以前也同意传统观点,认为“伦理学一般来说针对的是人类的道德”。此外,班德尔还认为“机器人伦理学不是──如人们越来越倾向认为的那样──领域伦理学,而是机器伦理学的核心与专门主题”
(2017a: 5)
。但本书相反地认为
机器人伦理学既是机器伦理学的专门主题,也是一种(次)领域伦理学
。
[4]
*班德尔(Oliver Bendel)(图源:网络)
另外,
机器人
伦理学
和
机器人
哲学
有必要区分开来。机器人伦理学是属于机器人哲学的一个学科,机器人哲学还另外处理例如认识论、美学、政治哲学、法哲学等方面的主题。
机器人哲学当中的机器人伦理学当然会很多其他议题的问题──像是伦理问题、政治哲学问题──有交叉之处
(Coeckelbregh 2016a; Coeckelbregh u.a. 2018; Ford u.a. 2006; Seibt 2018)
。本书也会在许多地方将机器人伦理学与政治哲学领域衔接起来(尤其是本书第三章的第二与第三节)。但是
哲学人类学
──一门追问人“的”存在的哲学──不讨论机器人。在大多数关于机器人的哲学研究中,人们只需要几句宽泛的话来进行定义,本书也是如此(本书提出的定义也适用于非哲学的著作)。我们在第二章第三节会再更仔细看到这件事,在那里我们会探讨道德主体与道德客体之间古典的分化,以及人作为一个严格意义上的单一道德主体与非人存在之间的画界区分。
在哲学外部的亲近性
:由于其研究对象之故,机器人伦理学家多是跨学科的,因为这门学科需要结合信息科学、机器人科学、人工智能研究、模控学以及其他技术、计算机和工程科学,才能探究机器人的构成、程序和设计。不过反过来看,过去几年在技术科学和技术工业那里,也越来越多人意识到在建在与运行机器人时产生的伦理方面的挑战。然而,至少在德语地区,这样的发展却
还没有进步到为未来的机器人专家的培训中设立强制性的伦理学课程
,也没有为机器人企业及其生产提供进一步的伦理学培训课程(亦可见本书第四章)。
*电影《机器人总动员(WALL-E)》(图源:网络)
机器人伦理学和本书研究设定的进一步确立
:在德语哲学界中,机器人伦理学还不是一门广获承认的学科,即便人们对于跨学科合作的兴趣已经越来越高。在英语地区,人工系统方面的伦理学争论从上个世纪中叶就已经有汗牛充栋的经典文献讨论得沸沸扬扬了,但相比起来德语区这方面的讨论屈指可数。
[5]
在我们这里,机器人伦理学时不时会遭到一堆哲学家的责难,认为这不是真正伦理,或是说认为这是没有专门对象的伦理学,因为这堆哲学家认为伦理学只关乎人类行动。但
就算我们事先就认定机器人不是道德行动主体、没有道德行动能力,我们也还是应该给予机器人在道德宇宙中的一席之地
。
所有可能的存在与实体──例如动物、植物、房屋、汽车、智能型手机、风景或整个生态系统──
最终
都是道德行动的客体
,我们会将价值,甚至某些时候还会将权利,赋予许多非人、甚至是非生命的实体。而在机器人这里会涉及到什么样的价值,当然还有待讨论,且会依不同的基础取向而异。如果不在伦理学领域中讨论,那还有什么地方会适合讨论呢?在第一章对在一些机器人领域中被提出的伦理问题进行概览之后,整个第二章要处理的问题便是
我们该赋予什么样的价值给每一种机器人
。
与其他探讨非人的存在与实体的领域伦理学相比,
机器人伦理学思考的是机器人在多大程度上必须被诠释成道德行动者与道德行动主体,在多大程度上是道德行动者,在多大程度上是可以进行行动的“实体”
(Floridi/Sanders 2004: 349)
。作为(依其内在的、亦即绝对的自身价值是)道德行动主体的机器人,是第二章第一节要讨论的议题。
接下来我将会问
我们在多大程度上应以特殊的方式来面对机器人
,或是说我们是否要用特殊的方式与它们相处,在多大程度上我们可以将机器人置于所谓的“
道德承受者
”
(moral patient)
的范畴中,在多大程度上可以将之视为“人对待它的方式有好坏之分的实体”
(Floridi/Sanders 2004: 349)
。
第二章第二节我们的主题即是作为(因其内在价值或工具价值而被视为)道德行动客体的机器人。
[6]
此外,
机器人伦理学还会讨论除道德行动主体与道德行动客体之外的其他可能性
。第二章第三节将会指出,机器人伦理学家在多大程度上需将道德行动主体与道德行动客体之间的亚里斯多德式差异当作问题,以及尤其是在多大程度上需将对道德行动主体的主流理解当作问题,并且该提出哪些其他可能性。
[7]
*CyberDog 2(图源:robotsguide.com)
第三章,亦是本书的第二个主要部分,要讨论的是
人与机器人之间的互动的责任归属问题
。这部分尤其是从伦理学视角出发的,但也会连带触及与责任归属相关的其他行动空间,例如伴随着机器人而出现的法律责任与社会责任。因为
责任不只是几乎所有人类行动领域都会有的基本现象,也被许多人视为一种人类学常数,亦为一个基本的伦理范畴
。因此责任对于机器人伦理学思考来说也是相当基本的。
机器人伦理学的责任归属研究和伴随着机器人的建造而来各项责任亦能连接上更广泛的人类行动领域,因为人类行动决策──例如政治(政治责任)、经济(消费责任、企业责任)──会关系到机器人的投入使用以及与机器人的交往。因此接着第二章,第三章第一节要问的是
机器人在多大程度上可以是一种责任主体
,第三章第二节则会探讨
在多大程度上人类可以当作机器人的责任客体来谈论与回应
,第三节则会讨论在人与机器人的互动中还有哪些
不同的责任归属模式
。
此外第三章还会针对该
如何应对人们所猜想的当代重要人类能力转型给出各种答案
(Loh 2019b)
。一方面,人们之所以猜想责任会出现转型,是因为
自主的、自我学习的机器人的出现导致人类“的”本质出现了根本的转变
。另一方面,人们认为我们的社会、政治、经济系统,由于机器人化、自动化、数字化、工业4.0的挑战,而在组织形式方面让我们
对责任的理解出现了极端的典范转变与相应的转型
。
我们在很多地方都可以看到很多人担心一件事,即
现代技术化的大众社会会让责任归属变得越来越困难,甚至在责任归属的可能性方面产生危险的漏洞
(可参阅本书第三章第二节提到的Lenk 1994与Matthias 2004)。但同时,人们对承担责任的呼声又不绝于耳。本书第三章要回答的问题,即是:是否我们尽管有所有这些改变,仍能够打造传统的责任观念(第三章第一、二节)?或者,是否我们对于责任的传统理解方式实际上已经改变或应改变了(第三章第三节)?
(本研究对)“机器人”的定义
:我们在上文将机器人伦理学视为机器伦理学的次领域伦理学,因为所有机器人都是机器,但不是所有机器都是机器人。
机器是人工构造物
,由透过推动系统(马达、风、水)而驱动的部件所构成的,并且能进行能量转换
(Canguilhem 2012; Strandh 1980)
。
机器人是一种特殊的机器
。从历史的角度来看,德文的“机器人”
(Roboter)
这个词源于捷克文“robota”,意指劳动、奴役、强制劳动,1920年由艺术家约瑟夫‧恰佩克
(Josef Čapek)
发明的(这个词由斯拉夫文的字根“rab”构成的,意指“奴隶”;Jordan 2017: 50;亦可参阅deMiranda 2019b)。后来他弟弟卡雷尔‧恰佩克
(Karel Čapek)
在他创作的剧本《罗素姆的万能机器人》
(Rossum’s Universal Robots, 1921)
用这个词来指称服务人类的人形机械装置。
第一个建立起来的机器人领域,工业,即是恰佩克的剧本中所描述的版本(见第一章)。这依然是所谓的工业4.0的核心部分,只不过
工业4.0透过数字化和自动化对人类劳动世界进行了技术的转型
。不过恰佩克并不是彻底的技术热衷者,相反的,他在《罗素姆万能机器人》中深入讨论了无数创造机器人时会造成的挑战。他的剧本的结局是机器人为了支配世界而发起叛变了。此外,恰佩克抛出了许多进一步的哲学问题,象是追问人类“的”本质,科学家对于自身的人工创造物的责任,以及与另外一类的本质产生情感连带意谓着什么。例如他的剧本最后一幕是两个机器人爱上了对方。可以说,由恰佩克所建立的这种历史上对机器人的理解方式,为往后几十年的讨论奠定了广泛的基础。
接下来的阐述基于卡特琳‧米塞尔霍恩
(Catrin Misselhorn)
所建议的定义之上
(Misselhorn, 2013: 43)
,但本书会将她的定义改得更宽泛一些。在她看来,
机器人是一种电子动力机器
,它a)有独立的躯体,b)至少有一个信息处理器,c)有收集世界信息的传感器,以及d)有输出装置或执行装置。机器人的行为e)是或至少表现得象是自动的,以及它可以f)对周遭环境产生作用,亦即它能产生物理影响力。这种对于机器人的理解方式不是没有问题的,当中有一些要素(例如具身化,自动,影响可能性)很容易产生歧义,因此至少还需要进一步的解释。而且这种定义也会排除掉同样常被视为机器人的人工系统,例如计算机、聊天机器人、医疗助理系统、遥控无人机等等。这也开启了一个技术哲学家应该为人们提供阐释的庞大
灰色地带
。科幻小说家
阿西莫夫
(Issac Asimov)
就已猜想到会有一个与机器人相关的领域,当中包括各种机器人的“亲戚”和“挚友”
(Asimov 1982: 53)
。
*在阿西莫夫的《基地三部曲》中,人形机器人已然算作人类种族之一,且有着自己的历史。图为电视剧《基地》中仅存的机器人。
(图源:
网络)
根据米塞尔霍恩的定义,如果所谓的条件a)到f)没有得到满足,那么就不是严格意义上的机器人。
具身化的类型与方式不重要,机器人可以有任何能想见的型态,当中人形的机器人可以称为人造人
(Drux 1988)
。在比喻的意义上,计算机是机器人的“头脑”,算法则可以用隐喻的方式称为“心智行为模式”与“学习过程”,但都不是机器人本身。例如达文西外科手术系统、无人机这类的人工系统,缺乏“自动”这个条件(即条件e))
(Jordan 2017: 31, 59, 262-266)
。对于本研究所使的狭义的“机器人”来说,在个别情况中,条件a)到f)是必要且皆充分的条件。下文将会对这个定义中一些特别会为哲学带来挑战的面向进行检视,象是什么是自动(第二章第一节),什么叫做影响力(第三章第一与第二节)。
在本书一些地方(尤其是第一章),本书也会稍微涉及到
宽泛意义上的机器人
(亦即没有满足上述某些条件的实体)。这些地方不会严格区分什么是机器人、什么不是机器人。如果我们想在一般宽泛意义上(亦即日常语汇中会用到的情况)理解“机器人”这个概念,那么我们八成会把它跟“机器”这个概念重叠在一起。
[8]