自动驾驶道德困境:出事了,撞谁?
自动驾驶汽车应该在事故中作出何种道德抉择?
当代科技的飞速进步足以逾越一般人的想象力。当前辅助驾驶系统已经在实践中普遍使用,完全排除人类驾驶者参与的L5级自动车,其应用和普及也进入视野。自动驾驶汽车从科幻小说设想的“未来”变为肉眼可及的“将来”乃至“现在”,似乎也只是转瞬之间的事情。自动车的应用至少有降低学习成本、节约出行成本、减少事故风险、促进交通效率四大优势。
具言之,完全自动驾驶汽车把人类使用者的驾驶技术要求降低到“零”,因此为了享受便捷交通而学车所付出的时间精力将不再有必要; 所有的驾驶者变为纯粹乘客之后,人类的双手便能从方向盘上解放出来,将注意力投入到工作、学习、娱乐当中,驾驶所导致的出行时间成本不复存在; 自动车凭借其远胜于人类的信息收集能力、资料判断能力、计算反应能力,可以将交通事故发生的概率降到最低; 在大数据时代,使用网络连接的自动车能够准确判定宏观的道路交通情况,因此能够解决拥堵问题并减少污染气体排放。
但是,“降低风险”并非“消灭风险”,自动车依旧会不可避免地引发交通事故。而且,自动车所造成之事故并非纯粹的意外: 事故中的安全者与伤亡者是被自动车程序中所预先设置的“道德算法”所决定的。
自动驾驶汽车在事故发生刹那所给出的具体对策是由立法者、制造者、使用者等相关的主体事先植入的。此时,交通事故作为一种“意外”的性质减退,因为相关主体为自动车内嵌的算法会给出确定性的利益衡量规则,事故的受害者是在事先所决定的。
这种情况下,道德难题诞生了: 自动驾驶汽车应该在事故中作出何种道德抉择?
01
功利原则:通过生命计算实现利益最大
“新问题常是老问题”,自动驾驶汽车的广泛应用为道德哲学所讨论的经典思想实验“电车难题”(trolley problem) 赋予了紧迫而明显的实践意义,为反思这一老问题提供了新素材和新契机。
原始版本的“电车难题”最早由富特( Foot) 提出用于说明堕胎的困境,正式为其命名者则是汤姆森(Thomson) 。较为普罗大众熟知的则是哈佛大学教授桑德尔在其著作《公正》一书及哲学公开课内所讲授的版本。
当然,不论何种版本,电车难题的内核本质都是一致的: 谁是牺牲者? 为什么?考虑电车难题的原始版本: 一辆有轨电车刹车失灵,直行轨道上有5个不知情的工人,岔道上有1个工人,那么,司机应该如何选择? 是听天由命直行压死5个工人,还是改道压死1个工人? 争议焦点是,改道压死1个人以拯救5个人的功利主义选择是否真的更好?
( 一) 随机模式不可取
功利主义对电车难题的回答是简易的: 因为5>1,则应当选择转向以拯救5条生命,代价是牺牲一个工人。如果不认可功利主义的回答,其他选择则无非囊括两个种类。第一是作反向的选择,这种“1 > 5”的思维显然不可理喻,毋须过多论证即直接可以排除。第二是诉诸运气,在认可“5= 1”基础上,通过掷硬币、抽签等方式来决定谁是牺牲者。在自动车的情形中即是加入随机数,自动车杀死 1人与5人的概率均是五五之数。
随机选择在现代虽然不再具有古代的“神意”“天算”等超然地位,但其具有的“形式上最公正”优点依然存在。全凭概率的抽签方式在古希腊的原始民主选举中被广泛采用,现代社会中也有美国的陪审团选拔等采用抽签方式。有部分政治哲学学者相信抽签制度所拥有的好处使其可以被广泛推行。
王绍光教授指出了抽选的四大优点: 难以被操控、人人机会平等、具有代表性、“人皆可以为尧舜”。抽签虽然看似一种非理性选择,但其背后的深层理念正是“理性地选择将挑选过程非理性化”。不过,政治决策中所要追求的公正,其宗旨在于追求相称性,理性人需要对手段所能带来的收益作出考虑。从收益角度看来,抽签不可能是政治抉择的最优选项。民主的预期目标在于产生一项合理、明智的公共选择,而抽签碰巧获得合理结果的概率太低了。
正因如此,虽说各种民主选举制度均存在形形色色的弊病,但不会有哪一个当代的政体会严肃地考虑是否要仅通过抽签的方式选出国家元首与民意代表。
本文认为,随机数虽然是遵循形式公平的程序,但其只能适用于严格伦理两难的情境。在“杀一救一”情形下,采取抽签办法自然是合理的。但是,在电车难题的典型情状“杀一救五”还是“杀五救一”选择下,由于“5 > 1”显然成立,随机数实际会产生净损失。如果不能证明电车难题是一个真正的伦理两难,则抽签做法只能表明一种不严肃、不负责的错误态度。
( 二) 电车难题并非真正伦理两难
在铁轨两端皆是“抽象人”的给定条件下,如果仍出于现实环境下“具体人”的思维而拒绝采纳功利主义的经济学算法,这实际是一种“哲学的矫情”。这种矫情的危害在于偏离题设而无意义地把问题复杂化。
赵汀阳教授批判了“哲学的矫情”所造成的思维困难: “一旦相信 5 = 1,思想的算法就陷入不可救药的混乱。”如果在自动车道德抉择中不采用数目算法,就只能得出两个否定性结论: 牺牲少数拯救多数不合理,牺牲多数拯救少数同样不合理( 如果不是更加不合理) 。此时,理性的论证事实上已经无法进行,仅能给出一个似有实无的答案: “放任才是唯一的选择”。———显然上述的哲学批判正中靶心。
事实上,这种“证明 5 = 1”的离奇算法在法学界普遍存在,并几乎上升到了通说乃至教条的地位。“无条件的人权概念”主张生命价值是“无穷大”而绝对不可计算: 每个人的生命价值都是“无穷大”,因此一个人的价值可以不小于五个人,乃至在一些电车难题的变种中不小于整个城市、整个国家、整个世界。
但是,这种思维方式只是一种空洞的口号,其对于解决现实问题非但毫无助益,甚至因为复杂化问题而反倒有害。在这种抽象性问题上,只有两边数目相等的情况才可能构成真正意义上的两难。
而具体性问题中的伦理两难通常以文艺作品中所展现的“忠孝难以两全”为典型代表。按照这个思路,“真正的伦理两难”在中国可以称为“赵氏孤儿难题”———赵家门客程婴面临的困境是:用自己的儿子与另一门客公孙杵臼交换赵氏孤儿的生命,是否划算; 在西方可以称为“伊芙琴尼亚难题”———联军统帅阿伽门农面临的困境是: 将爱女伊芙琴尼亚献祭以交换特洛伊战争的胜利,是否划算。
显然,相比于这两个具体的问题,电车难题这一抽象性问题的意义已经显著地消解: 尽管都是“少数”一方,但赵氏孤儿对于门客具有“主君”的属性,伊芙琴尼亚对于阿伽门农具有“亲人”的属性,正是这些在人际关系中产生的特殊属性使得“少数”在生命衡量中具有了特殊权重。但是,这种属性只能在人与人之间的具体关联中诞生,因此无法在抽象性问题中谈论。
倘若以上具体性问题转换成电车难题式的抽象性问题: 赵家家主是否应选择牺牲两名门客拯救一名门客?阿伽门农是否要选择牺牲一名手下的士兵以取得特洛伊战争胜利? 以上两问恐怕就很难再被称为难题了。
( 三) 对功利主义的维护
针对功利主义的比大小选择,批评意见通常从道德价值出发,认为拯救5人的正当性不能证明牺牲1人的正当性。但是,无论牺牲5人还是牺牲1人,实际上都使得生命成为了另一条铁轨分叉的代价,可以说都不具备正当性。
功利主义所要说明的是: 牺牲1人而拯救5人是相比于其余选项而言的“最合算”抉择———亦即“两害相权取其轻”的算法。翟小波博士更为直接地指出: “杀人”是极端情况下的无奈的选择。在必须杀人的极端情况下,功利原则实在已经是最不残忍的原则。杀一人、救多人,给予牺牲者亲属以合理的补偿,已然是限制条件下的最优做法,实现了卡尔多-希克斯改进。
批评意见认为: 若使用卡尔多-希克斯效率标准,选择“杀一救多”可以通过补偿“一”达成标准,选择“杀多救一”也可以通过补偿“多”达成标准,这会造成算法的无所适从。这一批评言之成理,不过更多的死亡人数通常被视为更“坏”的后果,受害人数增加也无疑会增大补偿标准确定与具体给付工作中的谈判成本。此外,批评意见虽然质疑了卡尔多-希克斯标准,实际也并没有提出更好的方案,而是主张采用帕累托最优标准。
可是,帕累托改进的前提条件是不能有任何一方的利益受到损失,电车难题情形中因为必定有一方的利益被牺牲,事实上完全不可能实现帕累托改进。卡尔多-希克斯改进本身又称“潜在的帕累托改进”,其要求受益者对受害者作出补偿以填平其损失,是通过一道额外的分配程序以最终实现帕累托改进。因此,选用功利原则能够符合卡尔多-希克斯标准,即为已足。
02
抽象原则: 通过去具体化实现平等保护
功利原则的确立意义在于生命应当被计算。接下来的问题是,生命之间是否在权重上平等,是否存在应当受到特殊保护的群体? 笔者的观点是除了不遵守交通规则这一特殊情况外,每个个体在生命计算中均应平等。为此,需要反驳学界存在的两种优先观点,包括生命赋权算法以及乘客优先原则。
( 一) 对生命赋权算法的批评
单一衡量标准为多元价值观所取代后,由于价值观不存在一种“可公度性”,功利主义思想便遇到了困难。为了规避具体问题情形下真正的两难选择,自动车算法中的参数应当具有足够的抽象程度。如果任何生命都是抽象生命,自动车无论是选择牺牲两名乘客拯救一名路人、牺牲一名路人拯救两名乘客、牺牲一名乘客拯救两名乘客,这都是不存在问题的。
但是,在天平两端分量相同的真正伦理两难情境下,道德算法如果选择牺牲一名穷人拯救一名富人、牺牲一名老人拯救一名青年人等,便很容易受到伦理上的质疑。因此,笔者的初步结论是,将生命进行足够程度的抽象化是较为妥当的做法。这种做法有以下显著的优势:
第一,如果同数量的生命再被赋予了不同权重,则容易引起群体间的纠纷。选择与歧视是同一实质的不同表达,作出选择时亦必然作出歧视。生命赋权算法必然遭遇歧视的质疑: 被自动车判定为“应当牺牲”的群体可能会采取拒绝使用等做法进行抗议。尽管从理性角度而言此时使用自动车仍有收益(至少比起传统车而言安全性更高) ,但被歧视所激起的厌恶感最终将压倒这种利益,因而最终不利于自动车的市场推广。
第二,不同地域、不同文化、不同民族、不同国家的伦理价值判断差别明显,生命赋权算法产生地区纠纷、民族纠纷、国际纠纷的可能性也较大。此时会诞生以下复杂问题: 如何确定自动车装载何种权重的算法? 至少存在着生产者、消费者、具体行驶地域三种标准的选择。生命权重算法在车辆驶入外国、物权变动等情况下是否应当“入乡随俗”?道路交通管理部门是否可以因为自动车的算法不符合本国、本地的生命权重要求而拒绝其通行,这种针对外国、外地的道德壁垒是不是行政垄断的表现? 抽象化的处理很大程度上可以避免这种纠纷。铁轨两端的人的面目越为具体,所谓的“风土性因素”就越活跃,问题也就越发复杂而不可解。
第三,对生命赋予权重必然需要收集大量的用户信息。比如说,自动车需要知道用户的年龄来判断谁是老人; 需要知道用户的健康状况来判断谁是病人; 需要知道用户的收入情况来判断谁是富人,等等。这一类用于判断“生命质量”的措施便存在严重的隐私权侵犯可能性。在收集用户个人信息时势必需要说明,自动车汇总的信息可能被用于意外状况下的生命抉择。那么,被算法设定为需要牺牲的群体,其理性的做法显然是拒绝提供信息,因为做“抽象人”至少好过做被牺牲者。假设自动车为每个个人用户都打出了“生命质量分”从高到低进行公示排序,分数的倒数第一名因为必然在事故发生时牺牲,他的理性选择是取消个人信息授权成为“平均人”。此后倒数第二名便成为倒数第一名,同理可得其一样会取消授权。长此以往,自动车由于收集不到任何个人信息,主体权衡算法实际上将名存实亡,于是再次回归到每个人都是“平均人”的局面。如上所述,部分学者主张在自动车道德算法中加入主体权衡公式,在笔者看来这种做法易生矛盾且增加社会成本,因此并不可取。
总之,虽然功利主义因其明确性而成为最合适的道德算法基底,但信息的完善程度对决策结果的影响巨大。信息问题对自动车的发展提出了一大挑战: 如何为其信息收集能力划定合适的界线? 如果自动车能够掌握乘客与路人的年龄、健康状况、贫富贵贱等信息,则其可能倾向于在道德抉择中先杀死病重者、年老者、贫穷者,招致严重的伦理质疑。在信息收集这一问题上,笔者认为应当作出一种严格限制: 自动车不得对相同数量生命作出高下判断。每一个体都应该在自动车眼中是抽象人、平均人。
(二) 对乘客优先原则的批评
关于乘客优先原则的肯否,法理学界形成了陈景辉教授与朱振教授的对立。其中陈景辉教授彻底否认乘客拥有优先获得保护的地位,朱振教授则坚定捍卫乘客的优先地位(尽管接受某些修正) 。笔者认为乘客不应当具有优先地位———传统驾驶中乘客优先亦非铁则,在数字时代“万物互联”理念之下,各个交通参与者均应平等对待。
第一,乘客优先从来不是驾驶中的利益衡量铁则,毋宁说这只是一句口号,仅用来强调“乘客之安全非常重要”而已。
即便在服务行业如公共汽车与出租车的运行中,乘客也不具有完全的优先地位。出租车刹车失灵时,驾驶员若出于保护乘客的目的撞进人群造成大量伤亡,这一行为至多被认定为是紧急避险,并非正当。由于驾驶员自己是身在庐山,乘客存在与否并不对其利益状况造成影响。即,法律之所以不追究驾驶员的责任,是因为驾驶员本身是风险共同体的一员,不能期待他为了公共福祉牺牲自己。实质性的出罪理由是: 在驾驶员的判断视角下,自己的生命大于多个路人生命的总和。这种判断虽然不符合公共利益,但基于“行动者相关”论证,人们是可以容许这种利益衡量的。应当注意的是,此场合中具备相关性的是“驾驶员自身的生命”而不是乘客的生命。对驾驶员而言,并不存在“乘客生命大于路人生命”的说法。换言之,乘客优先并不是驾驶员所遵守的利益衡量标准。当决策者是自动车时,其不具有自身生命利益,则不可再使用行动者相关论证。
第二,乘客优先的主要论点无辜、空间以及权属均不能成立。本文将逐一概括这些理由的论证模式并予以反驳。
1. 无辜理由。乘客优先的第一个支持理由是无辜论证: 由于完全自动驾驶汽车取代了传统的人类驾驶者,并且关于撞谁的道德算法并非任由乘客人为选择,驾驶者转变为“纯粹的乘客”,他就如同公共汽车或者出租车中的乘客一样。作为一名纯粹的乘客,一方面,他是碰撞事故中的无辜者,所以不应当被牺牲。
这一论证是空洞无力的,车主是事故中的无辜旁观者,但路人同样也是无辜的旁观者。无辜论证只能支撑平等,而不足以支撑优先。无辜理由至多只能说,不遵守交通规则而诱发事故者不应受到平等保护。
2. 空间理由。乘客与其他可能被牺牲的无辜者(路人) 不同的特质在于,乘客在车内,而路人在车外。自动车保护车内的乘员而牺牲车外的路人,似乎是一个合理的抉择。
但是,如果考虑到我国在规范性文件中广泛采用“智能网联汽车”这一术语,空间理由便难以成立。如所周知,万物互联的理念最终是要达到这样一种目标: 通过算力的提升,原先个别的、片面的利益衡量能够被统摄到一个公共的、整体的算式中。这种技术的进步性主要在于克服混乱的小场景加总所带来的宏观不利益可能,最终增加宏观利益的可计算性。从这个角度出发,空间自然不能成为区分乘客与路人的理由。无论乘客还是路人,都应当被纳入到统一的算式之中,作为道路交通的参与者,他们地位平等。因此,空间理由不能成为优先属性的支撑,乘客不具有计算中的优越利益地位。
3. 权属理由。权属理由立足于道德哲学中“行动者中立”( agent - neutral) 与“行动者相关”(agent - relative) 的区分。在严格伦理两难选择“杀一救一”中,行动者中立的情形是: 两侧的“一”都与选择者没有利益相关。那么任何一种选择都是合理的; 行动者相关的情形是某侧的“一”与选择者存在利益相关(如亲朋好友等) 。那么,选择救助这一“相关者”便是合理的选项。权属理由认为自动车应该保护乘客,因为乘客拥有其所有权、使用权而获得了某种“相关性”。权属理由主张,自动车被赋予的任务是为车主服务,将他们安全送至目的地。但是,其他人的安全不是自动车的目的。因此在事故发生情形下,车主安全保障成为主要义务,路人安全保障只是次要义务,车主在安全上就具有优先的地位。
显然,权属理由在大部分情形中事实上与空间理由重合。自动驾驶技术的目的应当是在宏观上达成损害最小化,如果拘泥于一时一地的得失,其智能上的价值显然会受到更大的质疑。如果仍然在车内与车外区隔、车主与非车主的问题上纠缠不休,似乎本身就与自动车的目的相违背: 当物联网及万物互联理念成为指导思想之后,拘泥于车内车外、主人客人的想法显著地不能成立。乘客优先论证片面孤立地看待道路交通的各个角色,而没有将其放入更宏大的场域进行通约化计算。这种做法看似保护了个体的权利,却会致使沟通障碍增加,最终不利于新技术下共同福祉的实现。
“乘客”与“道路交通参与者”两个表述的差别在于观察视角的微观到宏观切换,这种切换的实质理由在于算力的提升。相对于传统的人类司机而言,算力充足、信息完备、反应迅速的自动车更有能力担纲“道路交通参与者”之角色,因为其具备人所无可比拟的资讯和控制优势,且能与其他自动车乃至道路基础设施之间作出有效沟通。郑戈教授对万物互联之下的道路交通进行了描述:在车联网中,车与车之间进行V2V通信,车与交通基础设施之间进行V2I通信。车辆状态及行驶数据在远端服务器中进行集中化处理,最终实现车路协同、交通资源有效调配。智能交通的精髓正在于交通参与者的“互联”,这种互联以平等主体为基础,赋予某一类主体以优先地位的做法显然不合时宜。
总之,笔者所谓的抽象原则是指应当取消人的具体性,使得铁轨两端的生命都变成抽象人,这种做法有利于效率提升、计算简易、规避争端。只有抽象人才能因其抽象获得价值通约性,因此能够采用数目算法比较大小。毕竟,除去比较数量大小外,无面目、无关系的人之间本不存在其他价值衡量的余地。不论年岁老幼、贫富贵贱、车内车外,每个生命均应具有同等的权重。
03
利他原则: 通过行政介入实现集体理性
在确立功利原则和抽象原则之后,选择肢两端数量不等的问题类型得以解决。之后仍应解决选择肢两端数量相等时自动车利他与否的问题。首先构建一个道路交通中紧急避险的简易模型:相向而行的车辆失控撞向自动车,自动车若不闪避则会遭到撞击导致乘客的死亡,若闪避则会撞向位于道路上的行人。于此情况下,自动车可作出的选择大致可被划分为三种:
1. 完全利己型,即优先保护车内人的生命。据此,在不可避免的情况下会选择撞向无辜路人而保全乘客的生命。
2. 完全利他型,即优先保护路人的生命。据此,在不可避免的情况下会不作反应而被撞击。
3. 伦理旋钮型。即赋予自动车使用者一定的自主权利,其可以按照自己的伦理偏好作出选择1或2。
( 一) 对伦理旋钮模式的质疑
在这三种模式之内,笔者最先否决是看似作出折中选择的伦理旋钮( ethical knob) 模式。这一模式由博洛尼亚大学的 Contissa 等提出。Contissa 等首先将道德选择模式区分为“强制伦理设定”( mandatory ethics setting,MES) 和“个人伦理设定”( personal ethics setting,PES) 。在个人伦理设定模式之下,乘客可以借助旋钮来选定个人喜爱的避险模式: 旋钮的最左侧档位为“利他主义者”(al truist) ,即牺牲乘客自身以拯救他人; 最右侧档位为“利己主义者”(egoist) ,即牺牲他人以保全自身; 居中档位为“中立”(impartial) ,即依据功利主义原则进行决策。自动车的使用者能够依据乘客的数量、年龄或其他属性随时旋动旋钮,从而确定乘客和第三人在道德算法中各自所占的权重。对伦理旋钮模式的质疑理由主要包括定义质疑、平等质疑以及法律功能质疑。
1. 定义质疑: 伦理旋钮的最致命缺陷在于根本违背自动车的定义。自动车的使用者固然没有进行实际的手把方向盘、脚踩油门等传统意义上的“驾驶”操作,但在汽车的发展史上,驾驶行为经历了不断简化的进程。在汽车发明初期,驾驶员甚至要具备熟练机械修理工的技能才能正常使用汽车,今天的驾驶员却不必如此。更为我们熟知的情况是: 驾校学习可以选择较为复杂的手动挡与较为简单的自动挡,但手动挡驾驶者不可能说“自动挡车不用踩离合器,所以开自动挡车不是驾驶”。既然对自动车进行伦理偏好设定能够影响其运行路径,则未来的设定伦理旋钮完全可以被定义成“最低意义上的驾驶行为”。那么,在使用者通过操控伦理旋钮驾驶汽车的情况下,汽车还能被称为是“自动车”吗? 答案显然是否定的。如果乘客负有操作旋钮的权限,其势必仍然同驾驶者一样需要密切关注路况,则上述便利均将化为乌有。进一步的结论是,在伦理旋钮模式下的驾驶者责任与现在的情况相比,不会有翻天覆地的演变。
2. 平等质疑: 如果每辆自动车均安装了伦理旋钮,会造成利己者对利他者的剥削。如果对设定稍作转换,在彼此具备不同的伦理设定情形下,利己自动车会选择撞向利他自动车以保全自身,利他自动车却不会作出任何风险规避行动,因此成为永远的被牺牲者。道路交通中也存在着非自动车,这类主体会作出违反交通规则的行为制造风险,而这些本应自负其责的风险同样被转嫁给了利他的善良车主。这种情况下,选择利他模式即意味着担负一切应有的与不应有的责任,选择利己模式也毫无疑问地存在道德质疑。这种对良善者的剥削不可能成为长久之计,行善而不得回报的模式必然导致伦理旋钮设定最终仍旧演变成利己模式,则旋钮所谓的“个人喜好”将会名存实亡。而后文将论述利己模式设定相对于利他模式而言,并不占优。
3. 法律功能质疑: 伦理旋钮模式的提出者认为,出于对自由意志的尊重,自动车的道德偏好应当交由行为人自行选择。魏超博士则从法律评价的角度指出: 让乘客自行决断的做法虽能避开强制伦理设定所可能产生的难题,但这昭示着立法者在自动汽车紧急避险的问题上放弃了法律评价。诚然,法律规范具备行为指引功能,理应在生命抉择这种重大的问题上宣示其态度。如果立法在涉及生命健康的重大问题上采取消极不作为的模式,无异于对问题的逃避,这可能使得民众对整个法秩序的正当性产生怀疑。
基于定义质疑、平等质疑、法律功能质疑,伦理旋钮模式应当被否定。并且,与旋钮共同被否定的是整个PES模式。事实上,PES模式会导向一种囚徒困境,使得每个道路交通参与者的处境都变得更差。
(二) 对利己型自动车的批评
1. 有造成危险传递的可能。自利模式或许可以在每个微观行动上都能证立其利益,但每一个微观自利的累加却有可能在宏观上形成不利益的坏结果。可以想象,利己型自动车甲在失控情况下选择转移风险而撞向另一辆无辜的利己型自动车乙,则乙会同样作出利己选择而撞向丙。以此类推,在事故发生时可能形成一连串的加害—规避—再加害链条。相反,利他模式自动车能使得险情的危险链条最短,这在宏观上属于有效率。
2. 有造成道德风险的可能,仍以上述的加害—规避—再加害链条为例,这一链条最终停止于何处? 只有那一个选择了利他模式的自动车自愿成为牺牲品时,危险传递才能停止。显然,在这种模式下,作利他选择的“善良”乘客成倍地承担了危险。其不但在两车事故中成为一手“原始危险”的承受者,在多车事故中同样成为二手、三手乃至多手“传来危险”的承受者。笔者认为,善良乘客作出利他选择时的判断资料可能只及于“原始危险”,让其承担范围外未知的多手危险,不但违背其真实意愿,而且不道德。因为,人不应该从不道德的行为中受益。长此以往,善良乘客由于认识更加深入以及已经遭遇的事故,其数量必然会逐渐减少,最终使得道路交通安全状况愈发恶化,成为“一切车对一切车的斗争”。德沃金曾经深入讨论了构成法律本体的元规则问题,并且举出了一条堪称典范的元规则“任何人都不得从其错误行为中获得利益”。
3. 有使得厂商承担法律责任的可能。刑法学者对于自动驾驶所生法律责任的问题讨论较多:第一,生产商人为介入了应当由驾驶员自己决定生死的情形; 第二,将乘客风险转嫁不符合紧急避险的规定。当然,“人为介入”这一点论证是不合理的———在自动驾驶广泛普及的情况下,乘客可能完全没有驾驶技能; 即便有驾驶技能,因为自动车的驾驶能力显著高于人类,“乘客介入”这一行动本身便可能是不合理乃至违法的。有刑法学者不乏洞见地指出,未来的交通肇事罪可能演变为“拒不使用自动驾驶罪”。因为相比于人的驾驶,自动驾驶风险更小,则手动驾驶本身就成为提高风险的行为。
(三) 对利他型自动车市场质疑的辩护
如上所述,利他模式占据了道德优势、功利优势。学者对于利他模式的质疑主要从市场角度提出。如朱振教授的“后果主义”理由认为: 如果自动车会作牺牲乘客的选择,则其“没人敢用”而永远无法商业化。
商业化是一项最有力的质疑,毕竟市场推广是一切新兴技术需要面对的考验。自动车所带来的一切福利改善都完全依赖于市场化,否则再多福祉也只能停留在纸面之上。
市场质疑认为,不确立乘客优先的原则,那么自动车的市场化必然失败。因为,如果自动车会在生死时刻作出“抛弃”乘客的选择,其必然不会被消费者喜欢。据此,利他型自动车根本无法在市场上与利己型自动车竞争。
反对者主张,乘客优先的市场论证能够获得经验研究的支持。受调查者在事涉自己与否时作出了截然不同的选择: 面对自动车事故之时,受调查者在不涉及自己的情况下基本认同功利主义模式———利他型自动车; 然而,在自己是乘客情形下,大部分受调查者会选择购买对自己保护最多的型号。
此处应当指出: 对于独立个体而言,他心目中缺乏行政干预前提下的汽车安全性程度排序应当是: 利己型自动车 > 利他型自动车 > 非自动车。这一不等式可以说明: 如果市场上根本不存在利己型自动车,则由于利他型自动车相比于非自动车仍然是更为安全的选择,则自动车市场化并不成为问题。如果事前以立法作出规制禁止利己型自动车的生产(换言之,以行政命令进行强制的算法道德化) ,则利他型自动车的市场根本毋须担忧。之后的任务,就归结到论证行政命令介入的正当性。
笔者认为,被调查者在这里的前后态度并不是矛盾的。
宏观角度来看,被调查者在一起事故中既可能扮演无辜路人角色,亦可能扮演乘客角色。换言之,被调查者不知道自己在事故时所处的立场,这是一个典型的罗尔斯式的“无知之幕”(veil of ignorance) 构造。
此时利他型自动车是理性选择: 利他运作模式能够使得道路交通中总的风险降到最小,而路人与乘客作为道路交通共同体的一员均担风险。被调查者在“无知之幕”下不知道自己的身份是路人还是乘客,因此选择“人均风险”最小的选项成为主流。第二个问题则撤去了“无知之幕”,其赋予被调查者明确的“乘客”身份。基于自己立场的理性选择仍然是让自己受损失最小,但此时这一选项与事故加总损失最小的选项并不重合,则利己型自动车是理性选择。
政治哲学告诉我们: 多数人的决定完全有可能产生一个对所有人都不利的结果,即个人理性的加总(aggregation) 有可能导致集体非理性的结果。关于自动车的调查问卷便体现了特定条件之下的集体非理性情形,为了矫正这一状况,则行政力量的介入便是理所当然的了。只有通过行政力量消灭“利己型自动车”这一选择肢,才能使得个体作出与公共利益一致的理性选择。
调查问卷的两个问题反映了不同利益状况下的购买者意愿。其中第一个问题是无知之幕下的选择,其因为不带有身份偏见而能够表明调查者的真实意愿。那么,行政介入的正当性实际通过第一个问题的答案便能得到证立。朱振教授的意见是: 利他是一种“超义务的”(supererogatory)个人美德,而非“基本的”道德义务; 因此,利他不适合作为法律和伦理规则的基础。强迫他人做好人确乎不可取,但调查者之所以在问题涉及自身时“变坏”,是因为做好人会侵犯到自身利益。若不排除利己型自动车,则利他型自动车只能成为一种道德模范而不是成功模范,因此不值得效仿。出于功利考量,如果一种统筹机制能够使得各个道路交通参与者的利益得到最大化,这种机制符合功利主义的计算,不应被反对。
总而言之,自动车算法可以被行政命令强制道德化的理由在于: 道路交通具有高度外部性,这使得使用者的自主性让位于公共安全的考量。在行政管制介入之后,市场质疑便不复成为反对利他型自动车的理由。
04
结语
任何创新都给社会带来风险,自动驾驶汽车概莫能外。自动车虽然总体上来看会降低道路交通中的风险,但由于算法提前在不同群体中进行了事故发生时的风险分配,其特别需要承受伦理道德的考验。电车难题并非严格伦理两难,负责任的做法是严格执行损失最小化的最优解,而不是在尊重生命等矫情借口下采取抽签等不负责任的放任态度。
在道德算法设定中,应当采取功利原则作为基底,因为功利原则是对应当与不应该、正确与错误问题的理性解决方法。虽然如此,生命的计算从来是一件动辄得咎的难事。所以,为了确保问题的解决,生命的抽象化是最稳妥的方法。通过行政介入确保自动车的利他性质后,便能实现个体选择与集体利益的统一。
未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明等材料,与我们联系,我们将及时沟通与处理。