剑客
关注科技互联网

如果人和动物都有权利,机器人是不是也应该有?| 特稿编译

如果人和动物都有权利,机器人是不是也应该有?| 特稿编译

编者按:近日日本北九州市一家名为"太空世界"的主题公园为了制造效果买来了5000条鱼买到冰层底下,希望营造出人鱼共游的效果。但是却被不少人斥责为“残忍和令人厌恶”。在舆论压力下园方表示道歉并将所有鱼取走。为什么我们会关心动物道德?因为也许在不久的将来,我们的对动物的道德规范也许就会被AI应用到我们自己身上。已经有人在探讨 人工智能的道德代码应该如何编写 了。而《纽约客》的这篇 文章 则从动物道德谈到了机器人的权利,值得我们深深思考。

关于动物,我们会把自己设想为它们的同类或者保护者。对于我们,机器人也许很快就会面临着同样的选择。

Harambe——这头大猩猩该死吗?

Harambe是一头大猩猩,大家对它的形容是“聪明”、“好奇”、“勇敢”、“高尚”。但直到今年春天以前Harambe还没有出名。今年5月28日,一个男孩,也是一样的好奇和勇敢,偷偷翻过了辛辛那提动物园的围墙,落到了Harambe和其它两头大猩猩一起分享的栖息地边上的壕沟(有水)里。围墙上的人又是呐喊又是大叫,想靠各种响声来发出警告。Harambe站到了男孩边上,似乎是想把小孩和骚动隔离起来,但随着喊声变大它抓起了男孩的一个脚踝,就像拖着一个玩偶经过游戏室一样拽着小孩跑掉了。有那么一会儿,它曾经优雅地扶着小孩的腰,撑着他的腿,让他保持一个正确的人类站姿。但随着呼喊声的继续,它再度拖起小孩跑过了半条壕沟。

如果人和动物都有权利,机器人是不是也应该有?| 特稿编译

Harambe是一头17岁的银背大猩猩,力气大得可怕。动物园管理员尝试引诱它放开男孩,但失败了。(出于担心小孩生命安危),动物园危险动物反应小组的一位成员射杀了这头大猩猩。小孩随后被送往医院,经过短暂处理后就出院了,并没有受到严重伤害。

Harambe在斯瓦西里语中有“齐心协力”之意。但这头大猩猩死后似乎却让大家产生了分裂。动物园主管Thane Maynard 说:“我们朝Harambe开枪不是草率决定,实在是因为小孩的生命有危险了。” 灵长类动物学家大都同意他的说法,但一些群众却悲痛欲绝。Facebook上出现了一个叫做致敬Harambe的小组,里面有粉丝给它画的肖像,大家相互交换名为#JusticeforHarambe的标签,还有一首冥想曲,“我们将永远记得Harambe的牺牲……安息吧,英雄。”

随着这头大猩猩的故事细节在媒体上汇集,大家用时尚的通讯社镜头来对它进行刻画,它蜷伏着,一只手臂搭在右膝上,就像年富力强时的肖恩·康奈利那样对着镜头沉思。一封呼吁进行刑事调查的请愿书是这么说的:“这头美丽的大猩猩因为孩子的父母没有看紧孩子而失去了生命。”这个请愿得到了50万份签名,CNN指出,这个数字甚至比要求起诉射杀Tamir Rice的警察的请愿者数量还要多几十万。大家把想法投射到Harambe的头脑,众人的愤怒达到了顶点。神经学家Kurt Gray告诉该电视网络说:“我们往往透过人类的视角来审视自己的行为。无法想象作为一只大猩猩是什么样子的。我们只能想象我们变成大猩猩的样子。”

这个简单的事实要为数世纪的伦理之争负责。支持Harambe的积极分子也许认为,为了防止有人失去生命而杀死一头大猩猩是不公平的,因为我们在认知上有相似之处:大猩猩的思考方式跟我们很像,所以它们应该拥有类似的道德地位。别的积极分子可能认为,正是因为我们在认知的不同所以大猩猩才应该拥有其道德地位:由于我们有先进的理性的力量,所以希望我们要摆脱这场猫吃老鼠的游戏,成为从小鸡到黑猩猩等动物的特殊保护者。(这两种观点都支持杂食主义:我们杀死动物因为我们也是动物,或者因为我们的例外主义意味着人类利益高于一切。)这些显然是对立的信念,标志着我们对自己与其他也有大脑的存在的关系是同类还是主仆的不确定性。“一个人直到在另一种生物眼中看到自己之前都不会认识自己,”人类学家与自然主义者Loren Eiseley这样写道。在面对着相似性和差异性时,我们被迫设定我们这个物种的道德高度。

但到了今天,此类清算也许会遇到纠结。在一个自动化的世界里,凝视我们自己的那个对方可能根本就不是有机体。它是机器人的机率正在变得越来越大:一种新型的、日益无所不在的独立思维。传统上,一系列对Siri的滥用或者对无人车的虐待尚未激起Harambe式的警告。但如果想法类似或者主仆关系是我们的道德标准的话,那有着先进大脑和人类监护权的人工生命为什么就可以免责呢?除非我们阐明了动物对我们的要求,否则的话我们将无法弄清楚我们欠机器人什么,或者它们欠我们什么。

子非鱼焉知鱼之乐

一个简单的例子也许就可以理清部分头绪。我们可以来看看鱼。鱼是否应该得到大卫·赫伯特·劳伦斯(D. H. Lawrence)所谓的人类的“热情,隐含的道德”?对此许多人都有一个隐含的热情回应:没门,鱼片。似乎耶稣就喜欢吃鱼;耶稣复活之后就煎过几条鱼吃。周末旅行者当中没有几个人会把钓鱼视为愤怒和堕落的表现(而且恰恰是相反),吃寿司时点刺身感觉更痛的是他们的钱包而不是他们的灵魂。热爱一条鱼的生命并不容易,部分是因为鱼本身似乎不太留恋生命。它们能给我们带来什么道德利益呢?

《鱼知道什么:我们水下表亲的内心世界》(What a Fish Knows: The Inner Lives of Our Underwater Cousins)文笔优美,是 Jonathan Balcombe 经过详尽研究之后对鱼类道德要求的支持论据,他在书中开门见山,直接就说我们欠它们很多。人道协会负责动物感知的Balcombe这样写道:“当一条鱼注意到我们时,我们就进入到了另一种生命的意识世界。有证据表明,至少部分鱼类是有部分感情的,包括恐惧、紧张、玩性、快乐以及好奇等。” Balcombe对鱼之乐的盼望对读者来说似乎是古怪的,因为他们从海鲈鱼的眼里看不到任何东西(注:这个庄子和惠子曾经有过“子非鱼焉知鱼之乐”之辩)。但他认为这种冷漠折射的是偏见,因为鱼的体验,并且就潜在意义而言,许多低等生物的体验,跟我们的相似性其实要比我们所以为的要近得多。

就拿鱼的疼痛来说吧。若干研究显示,就像你无意中碰到炙热的火炉会猛地缩手一样,鱼也自己的反射性反应,而且就像你会下意识地喊"哎呦!"一样,它也会有自己的"哎呦"版本。出于这个和其他的原因,Balcombe认为,鱼的行为在意图上要比之前所预测的更加丰富。他对深虾虎鱼的评价很高,这种鱼在到处游的时候会记住周围的地形,然后在退潮时,它们就会利用这份心理地图从一个池子跳到另一个池子。猪齿鱼擅长利用工具(它们会带上蛤蚌到处转,在找到合适的石头后咬着蛤蜊扭动身体敲击至粉碎进食里面的肉),清洁工濑鱼在特定的归纳学习测试中的表现甚至胜过黑猩猩。一些鱼甚至特立独行。我们发现,不是所有的大马哈鱼都逆流而上,产卵,然后死亡。结果表明,有的大马哈鱼可以再游回来,然后再重复这一过程。

我们在这里稍微挖掘一下鱼的心理可能性。一些压力过大的鱼会享受按摩,聚集到物体周围摩擦自己两侧,直到皮质醇水平降低。成年河豚在沙床不断绕圈扇出精美的几何曼陀罗图案,并且根据自己的品味用贝壳来装点(注:这个“麦田怪圈”的功能之一是求偶)。Balcombe报道说雌性褐鲑鱼会假装性高潮。也许除了所有的雄性鲑鱼以外,没人知道这是什么意思。

Balcombe认为,觉得鱼一点都不像我们的想法源自偏见:我们能对仓鼠感同身受,因为它会眨眼,爪子能抓住东西,但是既不会眨眼又没有手指的鱼似乎太“另类”了。尽管鱼的大脑很小,但就凭这断定它们很蠢的话,就像有人形象地举例反证一样,“气球因为没有翅膀所以就不能飞。”当然,Balcombe往另个极端走得有点过了头,他的书还掺杂了一些怪异的、人格化的奇闻秩事,都是一些令人目瞪口呆的道听途说。但他的观点是站得住脚的。如果我们把鱼当作我们的认知同类的话,它们应该被包含进我们的道德责任圈内。

争议发生在边界点。拍死一只蚊子算不算不道德呢?如果这种昆虫不值得予以道德考虑的话,它们缺少的关键品质是什么?康奈尔大学法律教授Sherry F. Colb 和Michael C. Dorf的新书《跳动的心:流产与动物权利(Beating Hearts: Abortion and Animal Rights)》就探究了此类边界标记的挑战。作者指出,很古怪的是,动物权利主张者与反堕胎支持者之间几乎没有什么主张重叠的地方。那些主张不要终结神经较为简单的动物,比如鱼的生命,其论据基础难道不应该跟主张不要堕胎的依据一样吗?Colb和Dorf都是提倡堕胎合法的素食主义者(“我们自己的素食主义之旅始于跟我们的狗一起分享生活的经历”),所以,尽管他们注意到这个悖论,但并不认为这里面存在双重标准。

他们提出,上述两种主张的最大区别在于“知觉”。许多动物拥有知觉,但受精卵和胚胎并没有。Colb和Dorf对知觉的定义是“具备主观体验的能力”,这个定义有点棘手,因为动物的主观性对我们来说很难确定。有一篇著名的论文叫做《作为一只蝙蝠是什么样的》,作者是哲学家托马斯.内格尔。他指出,即便人开始会飞,会吃虫子,并且可通过声呐绕开障碍物,但也不能拥有一只蝙蝠的完全体验,或者这种生物从出生开始形成的古怪的主观性。Colb和Dorf有时候会掉进这样的陷阱。他们在书中有一段提出,动物是否感受得到疼痛并不重要,因为“最炽热的疼痛会导致无法理解疼痛或任何其他东西。”这是对这种体验的一种非常人性化的解读。

尽管如此,但动物跟这个世界的交互方式显然不同于植物以及随机物体。草房子不会在乎自己是被烧掉还是原封不动。但干柴堆上的异教徒可不愿柴被点着,大概烤叉上的猪也不想。Colb和Dorf称之为拥有“利益”,他们不是完全满意的这个说法往往带有弦外之音——也就是功利主义,这个追求总体最大善的伦理思想派别。其创始人杰瑞米·边沁(Jeremy Bentham)在他的《论道德与立法原则》中曾把动物作为一个脚注而引起了大家的共鸣:

总有一天,其他动物也会获得只有暴君才会剥夺的那些权利……问题不在于‘它们能推理吗?’,也不在于‘它们能说话吗?’,而在于‘它们会感受到痛苦吗?

哲学家彼得·辛格(Peter Singer)在《动物解放》(1975)中指出,如果动物能感受到痛苦的话,难道我们不应该让它们的痛苦最小化吗?这种同类化的方式有一个优点:它既确立了动物的道德主张,又没有把人类的动机投射到它们身上。但这又引出了另一个问题:拿木棍敲邻居的脑袋显然要比毒死一只老鼠糟糕。可是,如果个体的痛苦最重要的话,我们又何出此言?

Singer的回答应该属于功利主义:这与生物无关,而是与整个系统有关。杀死邻居的凶手散播的痛苦要比一只老鼠的死亡更多。不过我们必须在动物生命和人的生命之间做出选择的情况是很罕见的,而且让动物的痛苦最小化往往也很容易做到。我们可以停止把牛群赶到屠宰场,我们可以烤豆腐而不是鸡腿。大多数人被要求淹死一只小猫时都会产生道德上的痛苦,这说明在某种程度上我们是知道痛苦是有关系的。但纠结的是我们对痛苦的感受特别的不可靠。我们还觉得,比方说像机器人这样的对象,它们根本就不会受苦。

hitchBOT——搭便车的机器人客死他乡

去年夏天,一群加拿大的机器人学家把一个古怪的发明放到了美国的大街上。他们把这个东西叫做hitchBOT(hitch 有搭便车的意思,也是一名投资人的名字),不是因为它是烟瘾很大的逆向投资者,喜欢抽尊尼获加,而是因为程序给它设计的目的就是搭便车。穿着雨靴,“脸部”屏幕露出像素化的、高飞式的微笑,靠着伸出大拇指和应该是讨人喜欢的人性化语音提示,hitchBOT本想从麻省Salem旅行到旧金山。此前它的加拿大和欧洲之旅一直都令人鼓舞:机器人总是能到达目的地。在2周的时间里,hitchBOT巡游了美国的东北部,一路上说着“你愿意跟我说话吗?……我对人性比较感兴趣。”然后它就消失了。2016年8月1日,它被发现躺在费城的一堵砖墙旁,已经支离破碎、身首异处。

如果人和动物都有权利,机器人是不是也应该有?| 特稿编译

群众的反应很迅速。一名记者在Twitter说:“我不能撒谎。我到现在还对hitchBOT的死感到震惊。”一名博客则写道:“hitchBOT被毁是又一个提醒,说明我们的社会还有很长一段路要走。”

人类可以对机器人产生温馨舒适的感受是包括《机器人瓦力》和《人工智能》等在内一个热门电影流派的主题。其巅峰是《星球大战》宇宙,一个有趣的机器人和乏味的人类身处其中的炼狱。但是这种情绪也应用到功能领域。美国洛斯阿拉莫斯国家实验室有一位机器人专家,他曾经开发过一个长相不可爱的长得像蜈蚣的机器人,通过匍匐前进来清理地雷阵,直到它所有的腿都被爆掉。有一次亚利桑那州试运行时,军方的一名上校命令停止测试,据《华盛顿邮报》说,因为他发现对机器人的暴力很“不人道”。

按照Singer的标准,这是毫无意义的。机器人又不是活的,而且我们确切知道它们不会受苦。既然这样,为什么连铁石心肠的上校都觉得对此类系统富有道德责任呢?一位叫做Kate Darling的研究学者最近联合MIT、哈佛和耶鲁大学进行了一项研究,试图理解我们跟机器人的关系出了什么问题。她在一篇论文中提出了三个因素:肉体性(存在于我们的空间而不是屏幕上)、感知到的自主运动(对象可以自己走,就好像有自己的头脑一样)以及社会行为(模仿人的行为对机器人进编程)。Darling和她的同事设计了一个实验,他们会给受试者发放一头名字叫做Pleos的小圆顶龙机器人,然后指示受试者与之互动。受试者要把它捆起来,然后不断打它,直到死亡。部分人拒绝了。有的甚至保护Pleos免受其他人的拳头。一位女性把机器人的电池卸了下来好让它“不受痛苦”。最后,参与者被劝说“牺牲”一头哭泣的Pleo,让其他的圆顶龙免遭厄运。

Darling尝试对此行为作出解释,她认为我们反感滥用逼真的机器源自“社会价值观”。虽然我们头脑中的理性部分知道Pleo除了电路、引擎和软件之外别无他物,就像咖啡机一样,这个机器是可以关掉的——但我们的交感神经冲动却被骗了,同时因为它上当了,所以打机器人就是培养他们行为上的不端。(这正是HBO的热门新剧《西部世界》的原则,对先进机器人的滥用就是人类不忠的象征)。Darling写道:“有一种担心认为,虐待像生命体一样做出反应的东西,会影响到我们与其他个体交互时体验到的那种同理心感受。”换句话说,折磨机器人跟机器人一点关系都没有,一切都与我们自身最恐惧的东西有关。

这类担忧,仿佛流向密西西比的宽阔河流一样逼近伦理学的一场历史性的大分歧。一边是Bentham这样的人,他们认为结果决定道德(撒谎说同事令人发狂的发型很好看是OK的,因为实话实说只会让所有人都不高兴。)另一边是认为道德应该取决于权利和规则的人。(一个有道德的人不应该是过于拘谨的骗子,哪怕是对发型这样的事情撒谎)。动物伦理往往青睐第一组:要求人们考虑其行动对生物产生的影响。但像Darling这样的研究让我们不禁猜想是不是第二种态度更好一点——考虑权利和义务,而不是考虑后果。

不妨来看看虐待动物罪的合理与不合理之处。纽约州禁止虐待宠物,但是又允许给狐狸下套;禁止电击“毛皮类(fur-bearing)”动物,比如麝鼠,但是又允许电击有毛的动物,比如老鼠;禁止给狗刺青,但是牛又可以。就像Darling所说那样,“我们明显更愿意保护那些更容易认同的动物表明,我们也许更在乎的是自己的情绪状态而不是什么客观的生物标准。”她把目光投向了康德,这位哲学家认为动物伦理是为人服务的。康德在《道德讲座》中说:“如果一个人射杀了他的狗……他因此也就损害了自身友好、人道的品质。”“对动物展现出如此残忍一面的人对人也不会更加心慈手软。”

这不是(peership)对等道德。它看起来像是某种被动的监护责任,在这种责任中,人类力图实现其高尚的人性,而动物或者机器人则可受益于这一努力的涓滴效应。Darling认为,这个很适合人、动物以及机器人日益纠缠在一起的时代。我们会指望自己16个月大的小孩能理解为什么扯猫尾巴是残忍的,但是追逐Roomba清洁机器人在道德上却是可以接受的吗?难道我们不想抚养一个没有恐吓任何类生命体(不管其假定的本体论如何)冲动的小孩?对于现在正穿着尿布的一代人来说,跟Siri式的人工智能展开对话是这个世界的自然状态。我们跟朋友交谈,我们跟设备交谈,我们宠爱自己的小狗,我们爱抚自己的爱人。在现代生活的洪流里,康德坚持权利只能在人对人的行为中获得似乎就太局限了。

在这里一位有前途的伦理学家可能会被感动,就像《黄金年代》里的Gaston Modot一样,恼怒地踢一只小狗。把别的个体当作道德同类似乎没有成功的希望:我们不清楚对等关系的边界从哪里开始,而想要寻找这种边界的努力则会遭遇偏见和误解的阻扰。但是充当有原则的监护人,把其他生物限制在底层——以及人类是宇宙特殊的主人,负责决定谁生谁死的想法似乎已经过时了。像Peter Singer这样的边沁主义者也会陷入到怪异的极端情况之中。如果避免痛苦是目标的话,反对针对整个种族的无痛灭绝几乎就没有原则基础了。

怎么办呢?几年前,哈佛哲学家,康德学者Christine M. Korsgaard开始着手一桩康德式的动物权利案子(以个体自由为原则而不是痛苦个案,像Singer那种)。她的第一个障碍正是康德本人。康德认为,由理性而引发的权利应该能够腾出一片空间,使得每个人既能按照自己推断是好的来行事,又不会压制别人的思想(我的财产权可制止你在我前草坪安装一个大浴缸,即便你认为那是好的。这使得我可以自由地使用我的草坪,只要我认为是好的,只要不牵涉到大浴缸。)康德指出,动物无法对自己的选择方式做出推理,所以自由的权利对它们不起作用。如果吮吸花蜜的蜂鸟被要求按照最高的理性标准来行使意志,它也只会从一朵花飞到另一朵花那里。

然而,Korsgaard提出,把所有事情都往理性选择去靠是转移大家的注意力,因为人,哪怕是康德本人,并不仅仅是理性的存在。他们还会冲动行事。她认为,行动的基本动机产生于能体验到一个东西是好还是坏的能力,这个特质是所有的动物都具备的。如果我们作为人就像对我们的草坪提出权利主张一样对狗的思想和身体提出权利主张,那我们行使的就将是任意的权力,而任意的权力正是康德寻求避免的。所以,根据他的原则,动物必须对自己的身体拥有自由,也即权利。

这一观点不需要动物也要权衡那些抽象的特质,比如智能、意识或者感觉能力等。严格地说,这甚至并不要求我们永远都不能吃荷包蛋或者野味。它把启蒙的价值——主张有选择的权利,主张个体自由而不是暴政——延伸到了我们所监护的生物身上。它呼吁:让那些小鸡到处跑吧!给大马哈鱼一个机会,把它放归到宽阔的海洋,让它用智慧冲开抓捕的大网,而不是在网箱里终其一生。我们无法确定这些小鸡和鱼是否在意,但对我们人类来说,这些标准是避免残暴行为的关键。

机器人似乎并不在此类人道主义的范围之内,因为它们缺乏身体自由(你的无人车不能自行决定开车到海边)。但跃进到机器学习之后,由于这种人工智能可以编程为自我学习(注:还是要分为有监督和无监督学习,前者仍然需要人来做准备工作),情况开始朝着这个前提靠近。机器人应不应该被赋予权利呢?《泰晤士报》技术记者John Markoff在《与机器人共舞》中提出了这个问题。之所以提出这个问题,部分因为机器人的思想跟动物不一样,是人类想象的产物,它们有可能在我们的游戏当中向我们发起挑战并击败我们。Markoff阐述了一个大家的普遍恐惧,即担心机器人会把中产阶级压得透不过气:“技术不会成为经济增长的源泉,相反,却会给所有以技能为基础、需要不同类型的“认知”劳动执行能力的程式化工作造成风险。”需要担心的不仅仅是机器人抢了装配线上的工作,或者换句话说,你还得担心它们看检查表或者做经纪人比你还专业。没有什么墙能阻挡对美国岗位的大举入侵。机器人是美国人的独创性结出的硕果,基本上它们正在学习我们知道的一切东西。

这样的未来敦促我们现在就得梳理好我们的道德目标。机器人暴动是不大可能发生的,忠实的人类反对邪恶机器部落的战争倒是更有可能。其实可能这已经以某种方式开始了:通过与廉价的赋权智能的共生,我们对这些智能敞开怀抱,让它们进入了我们的日常生活。手机现在增强了我们的记忆,集成聊天机器人让我们省下了等待客服接听的漫长时间,app让我们可以在地球上到处追逐Pokémon。赛博格(cyborg)体验就在这里,它伤害我们的手段不是粗暴,而是让我们注意到自身的限制。

无人车编程有一个经典问题,即考虑如何避免事故。如果只能在打方向盘撞上多达10人的一群路人和径直撞向一堵墙撞死车主之间做出选择的话,无人车应该做何选择?这个难题不仅仅是道德上的,也是商业上的(你会不会买一辆在特定情况下根据程序会杀死你的车?),这还是我们作为人类所做出的一个决定的真实写照,这是一个严酷的决定,但我们往往会忽视。AI的恐怖优势其实不是HAL9000,那台不愿被关掉的流氓机器,而是计算道德的车,军事无人机:那些能按照我们想法执行,并因此把我们的道德行为机械化的机器人。

对此,现在人文学科一个流行的解决之道是“后人文主义”。后人文主义寻求回避这样一个前提,即人性是具有魔力的,这个东西流行于启蒙时代,但是基于现在的知识这是有疑问的。一些后人文主义者,比如N. Katherine Hayles,已经求助于电子人(无论是可穿戴技术这样的主流形态还是极端形态)来挑战身心不可分离的想法。其他的人,比如Cary Wolfe则指出,假体无论附加到什么地方也应该属于动物生命的一部分。在一个人文主义或者人道主义如此盛行的地方,后人文主义不可避免地是要走入死路的。作为人,我们通过据为自有来实现完整的自我,就像大部分动物和机器人一样,我们通过具有周围世界的习性,通过运用工具而走向成熟。那个项目的风险是真实的。在动物园出生的Harambe,居住在人类创造的世界里,所以它死了。我们最好的特征是仍然被这件事困扰,我们最糟糕的特征是我们敬畏幽灵甚于生者。

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址