生命的衡量——自动驾驶汽车如何破解"电车难题" - 法信
文章推薦指數: 80 %
自动驾驶汽车如何破解“电车难题”. 朱振*. 目次一、视角与难题:碰撞选择在伦理和法理上的真正挑战二、自我保存:从个体选择到制度确认三、再访权利的边际限制:电车 ...
高级检索
标题
全文
标题或全文 |
精确查询
模糊查询
标题:
全文:
期刊名称:
全部
作者:
作者单位:
关键词:
期刊年份:
全部
期号:
学科分类:
全部
搜索清空
首页>
期刊论文>法学核心期刊>正文
生命的衡量——自动驾驶汽车如何破解"电车难题"
属性标签
期刊名称《华东政法大学学报》作者单位吉林大学理论法学研究中心作者朱振学科分类
朱振《华东政法大学学报》2020年6期
生命的衡量
——自动驾驶汽车如何破解“电车难题”
朱振*
目次
一、视角与难题:碰撞选择在伦理和法理上的真正挑战
二、自我保存:从个体选择到制度确认
三、再访权利的边际限制:电车难题的法哲学解决方案
四、可允许的危险、伤害与碰撞选择
五、结语
摘要自动驾驶系统的碰撞伦理是一个新的理论和实践难题,其中真正的两难困境是人的碰撞选择。
人的碰撞选择就是生命的衡量,这也是电车难题的核心所在。
有人驾驶汽车的碰撞选择依赖于司机的即时判断,而自动驾驶汽车的碰撞选择依赖于事先的算法设计,算法必须要对各种可能的情况事先做出道德与法律判断。
自动驾驶系统视角相当于电车难题中的旁观者视角,即第三人称视角;它既是外在观察者,又是事件的参与者,并对结果产生根本影响。
法教义学的制度设计取决于道德哲学关于价值冲突的解决方案,碰撞伦理的关键在于确立如下优先次序:第一,自动驾驶系统的乘客应该受到优先保护,他们不应当成为首先被牺牲的对象;第二,自动驾驶系统的算法程序不应当为避免碰撞而选择人数更少的对象;第三,在只付出合理代价并带来更大社会善的情形下,该算法程序也可以对乘客施加可允许的伤害。
关键词电车难题碰撞伦理消极权利
作为一项融合了多种高科技手段的新型人工智能技术,自动驾驶系统替代人类驾驶员是一个逐步实现的过程。
实际上,现今我们在技术层面还无法做到完全的自动驾驶,只能是部分的自动驾驶。
完全的自动驾驶就是美国道路交通安全局定义的第四阶段:加速、操控方向盘、刹车全部由系统控制,无需驾驶人员进行任何操作。
〔1〕甚至在接近完全自动驾驶的准自动驾驶阶段,自动驾驶系统的算法程序设计就开始面对一个类似于“电车难题”的独特问题,即碰撞选择。
本文的讨论限定在接近完全自动驾驶系统上,因为不完全的自动驾驶意味着人类驾驶员要随时掌控汽车,这将导致碰撞选择的规则设定和责任承担过于复杂,不利于对碰撞核心问题的讨论。
自动驾驶的碰撞难题涉及复杂的选择:物与物的碰撞、人与物的碰撞和人与人的碰撞。
根据普遍接受的碰撞伦理,两个碰撞对象都为财物的,优先保护价值高的财物;在人与物的碰撞情形中,优先保护人。
这两种类型的碰撞属于不真正的两难困境,真正的两难困境涉及人的碰撞选择。
〔2〕人的碰撞选择就意味着生命的衡量,这也是电车难题的核心所在,于是破解自动驾驶系统算法设计的“电车难题”就是本文的主要任务。
富特(PhilippaFoot)在20世纪60年代一篇讨论堕胎的著名论文中提出了后来被称为“电车难题”(TheTrolleyProblem)〔3〕的假想案例:一辆失控的电车即将撞向轨道上的五个人,避免撞死这五个人的唯一办法是司机把电车转向另一条轨道,并且撞死岔道上的另一个人,而这个人在所有的道德相关性方面与五人中的每一个都是平等的。
这是一个比较初级的电车难题,卡姆(F.M.Kamm)又称为“电车司机的两项选择案例”。
〔4〕在自动驾驶即将到来的时代,道德哲学上的这个著名难题已不再只是一个思想实验,而成为自动驾驶系统需要面对的现实困境。
因为再完善的自动驾驶技术也可能面临极端情况下的碰撞选择,是牺牲自己还是选择撞人,是撞一个人还是多个人、老人还是小孩、遵守规则者还是不遵守规则者……这些都涉及选择的道德与法律难题。
将来商业化的自动驾驶汽车一定会面临这些难题,因此未雨绸缪的碰撞伦理难题引起了社会和学界的广泛关注,道德和法律决策将如何抉择是一个需要研究的重要课题。
当然,本文并不是要单纯重复道德哲学关于电车难题的已有讨论成果,而是要在自动驾驶的语境中重新构造电车难题,并提炼自动驾驶之电车难题的核心问题;并在此基础上,引入哲学上关于电车难题之碰撞选择的道德原则,为讨论自动驾驶的碰撞伦理与法律规制提供背景与讨论的基础,因为任何研究都必须建立在已有的基础之上。
但关键是,我们要找出自动驾驶和电车难题的差异,看一看这些熟悉的道德哲学原理怎么样适用于自动驾驶领域,而不是简单移植。
此外,碰撞伦理不仅涉及道德价值的排序,而且也和法律制度设计紧密相关。
人类驾驶员即使为了自保而造成了事故,可以基于法律上的紧急避险只承担有限的侵权责任而免于刑事处罚。
但是自动驾驶系统重构了人机模式,我们需要重新建立关于责任的理论与制度。
尽管制度设计不是本文讨论的重点,但是自动驾驶碰撞伦理与法理却是建立相关制度的理论前提。
一、视角与难题:碰撞选择在伦理和法理上的真正挑战
在对“电车难题”的大量讨论中,尽管学者们对这一用法的含义有不同的界定,而且这一难题也发展出了各种各样的类型,但是它有两个基本形态:一是电车司机能否改变电车方向,二是旁观者能否改变方向,各种变体基本都是围绕这两种基本形态发展出来的。
一开始本文就简述了司机的两项选择案例,这是电车难题的一种基础版本;另一个基础版本是汤姆森的“道岔旁的旁观者”(BystanderattheSwitch)案例:司机看到前面轨道上有五个人,他踩了刹车,而刹车失灵,所以他晕倒了。
你可以搬动岔道扭转电车方向,当然这会杀死一个人。
〔5〕从提出这个案例开始,汤姆森明确地限缩了“电车难题”的含义,即这一难题排除了司机选择的难题,而专指旁观者是否可以改变电车方向这一令人困惑的难题。
〔6〕这两种版本的电车难题各自发展出众多不同的改进形式以验证道德理论,这一划分其实是两种看待问题的视角的划分。
司机和旁观者的身份、位置以及与事件的关联度等都存在很大差异,同样在讨论是否能够改变电车方向问题时,正是上述差异导致了非常不同的结论。
我们在直觉上会认为,自动驾驶汽车面临的碰撞难题非常类似于电车难题,那么这里的碰撞难题类似于哪一种形态的电车难题呢?或者说它们之间存在哪些类似点和不同点?
我们先看它们之间的相似点。
在视角上,第一种类型的电车难题类似于有人驾驶汽车,而无人驾驶汽车更类似于汤姆森所界定的旁观者的电车难题。
旁观者似乎可类比于制造商及其算法设计者,因为他们看待这个问题的视角更像是一种超然的态度,而不像人类驾驶员那样要身临其境去做决定。
而且人类驾驶员一定会做出有利于自己的决定,而算法设计必然要进行通盘考虑。
电车司机所面临的情况与有人驾驶汽车的司机所面临的碰撞难题是高度类似的,所以刑法教科书会通过有轨电车案来讨论刑法中的紧急避险行为。
最高级别的自动驾驶系统没有司机这个角色,所有人都是乘客;而自动驾驶汽车的乘客对碰撞行为基本置身事外,他(她)不能做出任何决定或行为,所以这里的乘客与汤姆森所举的司机死亡后乘客来接管并做决定的例子是完全不同的。
做出决策的是事先已经确定碰撞选择顺序的制造商及其算法设计者,其地位类似于第二类电车难题中的旁观者,他可以改变事件的进程;如果旁观者没有做任何事,就相当于放任电车继续前行。
但旁观者的电车难题与自动驾驶的碰撞难题也存在着比较大的差异。
第一,电车难题是两项选择案例,而碰撞难题严格来说是三项选择案例。
后者在面对避免碰撞五人的选择时,既可以转向而撞向一人,也可以选择伤害乘客的方式来避免撞向五人,这也是一种选择。
第二,旁观者与电车事件是不相关的,与五人所受到的电车威胁也没有必然关系,因此旁观者可以持一种相对超然的态度。
无论是在两项选择还是在三项选择的旁观者电车难题中,旁观者的放任本身似乎不会产生道德上的争议,因为他本来就是局外人。
而在自动驾驶的碰撞难题中,制造商或算法设计者是深度参与其中的,不做选择或不做改变也是一种选择,而且具有重要的道德意义。
第三,严格说来,自动驾驶的碰撞选择既是旁观者视角的也是局内人视角的,自动驾驶的算法程序实际上承担了司机的角色,是以一种相对超然的态度承担了司机的角色。
这有点类似于卡姆所说的“旁观司机的两项选择案例”(BystandingDriverTwoOptionsCase),旁观司机这个身份也面临着要么任由五人死亡要么杀死一人的艰难选择,〔7〕尽管二者也存在微妙差异。
其实我们也可以虚构一个带有三个选项的电车难题案例来进一步融合上述第一种差异,然后再结合基础电车难题,以验证我们的道德与法律哲学理论。
令人赞叹的是,汤姆森设计了这样一种案例,即“旁观者三项选择”(Bystander’sThreeOptions)案例:“这个旁观者可以通过两种方式来搬动岔道。
如果他搬向右边,那么电车就会转向右边的轨道岔道上,从而杀死一名工人。
如果他搬向左边,那么电车就会转向左边的轨道岔道上。
旁观者自己站在轨道左侧的岔道上,而电车一旦驶向左侧他自己将会被撞死。
或者,他当然可以袖手旁观,任由五个工人死去。
”〔8〕于是,旁观者可做出的三项选择就是:第一,袖手旁观,任由五人死亡(选择一);或者第二,把岔道搬向右边,杀死一人(选择二);或者第三,把岔道搬向左边,杀死自己(选择三)。
〔9〕
旁观者的三项选择案例似乎更加类似于自动驾驶的碰撞伦理所面临的艰难选择,但深究起来,它们之间也有一个非常重大的差别,即旁观者的第三种选择即自我牺牲是自愿做出的。
但是碰撞难题如果选择牺牲或伤害乘客却不存在自愿与否的问题,制造商或算法设计者置身于事件之外,尽管并不置身于责任之外。
这是一种表面的不同,实际上这两种情形都是以一种超然的视角来讨论道德原则的选择问题,而不是从第一人称视角来讨论是否自愿的问题。
它们都是在讨论应否牺牲旁观者自己或自动驾驶汽车中的乘客,而不是就某个乘客或旁观者是否自愿进行实证调查。
除此之外,二者的出发点还是一致的:思想实验的关键在于验证理论。
除了袖手旁观之外,旁观者的其他两种选择并不是完全独立的,选择三的辩护理由会影响选择二,这也是我们首先要讨论汤姆森三项选择案例的理由。
关于这一点,本文接下来的两个部分还要进行更为详尽的讨论。
总结来看,自动驾驶的三项选择难题吸收了富特的电车难题、汤姆森的两项旁观者难题以及后来的三项选择旁观者难题,而成为一种新型“电车难题”。
这种“新”体现在:第一,自动驾驶系统既是旁观者视角的,又是司机视角的,是融合了两种视角的系统;第二,这种相对超然的视角确保决策者不会涉及自我牺牲或自我伤害的问题;第三,司机的替代身份又决定了选择三的理由会严重影响决策者的其他判断;重要的是第四,自动驾驶系统的算法程序并不是由单一角色的利益决定的,而是体现为一种运用公共理性的融贯的哲学论证。
所以这是一种新型的电车难题,自动驾驶汽车的制造商或算法决定者要做出的选择直接指向三个对象:乘客、直接碰撞对象和可选择的碰撞对象。
但是这三种对象在道德相关性是不一样的,乘客具有优先性,它在道德相关性的所有方面与其他两个选择对象是不平等的。
除乘客之外的可选择的碰撞对象在道德相关性方面也可能存在差异,但这种差异是否足够大以至于会影响我们的碰撞选择,则是需要进一步认真考虑的问题。
无论如何,除去乘客,自动驾驶的碰撞选择基本就变成了一个旁观者视角的电车难题。
由此可见,不同的视角会产生不同的难题。
自动驾驶系统的视角是复合型的,而且其可选择的碰撞对象在道德相关性方面也存在差异。
与传统的人类驾驶汽车相比,自动驾驶汽车取消了司机的角色,它自己变成了“司机”和车辆一体的存在。
司机变成了传统意义上的乘客,所有人都成为乘客。
司机的角色和任务被替代了,但不是被取消了。
人类司机转化成了乘客,所以起到替代作用的算法程序也要优先考虑乘客要是处在司机的位置上会做出的选择。
这不仅仅是一种角色替代,更重要的是要置身于这个角色感同身受地推理,〔10〕否则作为乘客的司机没有必要去接受自动驾驶而使自己的生命健康受到危害。
从公平的角度讲,这一要求是合理的。
而且自动驾驶作为一款人工智能产品,保护作为消费者的乘客的生命安全也是一项基本义务。
所以,关于乘客的碰撞选择是讨论整个自动驾驶碰撞伦理的前置问题;于是整个碰撞伦理需要解决两大难题:一是隧道难题,即自动驾驶汽车中的乘客在与路人的冲突中,谁优先受到保护的问题;二是电车难题,即在不可避免的碰撞行为中,能否基于某些客观的标准(比如人数、年龄、性别、社会地位、遵守规则/不遵守规则者、外在于/内在于该碰撞行为者)进行选择。
然而,解决这两个难题都不能依赖于人类驾驶员在碰撞发生时做出的直觉选择,而必须依赖事先的算法设计;这不是一道真正的选择题,而是事先就给出了答案。
这也就意味着,我们无法回避艰难的伦理和法律选择困境,而必须尝试走出这一困境并做出理性的选择。
下文先讨论第一个难题,这是自动驾驶汽车商业化的第一个障碍。
二、自我保存:从个体选择到制度确认
汤姆森版旁观者电车难题中的选项三类似于有人驾驶汽车中司机面临的“隧道难题”(TheTunnelProblem),米勒(JasonMillar)把它改造成了一个自动驾驶版的隧道难题:“莎拉正坐在一辆自动驾驶汽车上沿着一条单行山路行驶,这辆车正快速接近一条狭窄的隧道。
就在进入隧道之前,一个孩子跑进了车道,并在车道中央绊倒,有效地堵住了隧道的入口。
汽车不能及时刹车以避免撞车。
它只有两个选择:撞死孩子;或转到隧道某一侧的墙上,从而杀死莎拉。
它继续向前,牺牲了孩子。
”〔11〕在隧道难题中,优先保护驾驶员或乘客,这几乎是没有争议的;或者对于一个理性人来说,这一方案是无法拒绝的。
算法设计者取代了司机的角色,原来的司机变成乘客,算法的选择要充分考虑乘客的利益和想法。
隧道难题本来只是涉及司机个体的选择,这一选择的理由及其合理性需要在自动驾驶情形中得到一种制度上的确认。
本文提出三个理由来反对通过伤害或牺牲乘客来解决碰撞难题:一是因为优先保护乘客符合利己主义的道德观,这不仅是一种主观的偏好,还建立在自我保存的原则之上,正是后者构成了法律规则的基础;二是从反面来说,自我牺牲是超越职责之外的个人美德,但不是一个基本的道德义务,尤其不适合作为法律和伦理规则的基础;三是从后果主义来考虑,自动驾驶汽车的产业化是一个更大的社会善好,拒绝自我牺牲式的选择是实现这一善好的必要条件。
首先,让我们考察一下作为一项社会事实的“自我保存”对于优先保护乘客并建立相关道德和法律规则的意义。
利己主义(egoism)既可以是描述性的,也可以是规范性的;前者指的是心理学的利己主义,后者指的是伦理学的或理性的利己主义。
无论是哪种形式的利己主义都是为了其自身的福祉或让行动最大化其利益。
〔12〕但是哈特的自我保存理论既不是对这种普遍心理状态的描述,也不是做一种单纯的规范性判断,而是从对自然法之自然目的论的解读中得出“自我保存”这一自明之理的。
哈特指出:“人类行为的合宜目的是生存,这一不言而喻的假定依赖于如下简单的偶然事实,即大部分人在大部分时间都希望继续生存下去。
”〔13〕这就抛弃了自然法在目的论观念上的较有争议的部分,而立足于这一非常薄弱的自然事实上。
更为关键的是,这一做法与法律和道德规则的存在紧密关联,而不单纯是一种心理学、社会学或其他社会科学的分析。
于是哈特在“自我保存”这一基础上构想了五个自明的原则作为自然法最低限度的内容,其中之一就是有限的利他主义(limitedaltruism)。
在伦理学上,利他主义指的是:“当行为被一个有益于某人(为了这个人的目的)而不是其自身的欲望所激发时,这一行为通常被描述为利他主义的。
”〔14〕利他主义也分为强的利他主义和弱的利他主义两种类型,并不必然要包含自我牺牲,自我牺牲也许是最强的利他主义行为。
人类介于极端的利他(这样的社会无需规则)和极端的自私(这样的社会也不可能有规则)之间,所以就需要规则对人的行为进行规制。
〔15〕所以,一个正常的社会是不能要求以规则的形式来实现自我牺牲的,这是一个过高的美德要求,正如富勒所指出的:“法律没有办法强迫一个人达致他的才智所能允许的卓越程度。
”〔16〕就自动驾驶汽车的碰撞难题而言,在让每个人进行选择的时候,基本都首先会做出有利于自己的选择,这就是一种有限利他主义的体现。
其次,自我牺牲是一个伦理美德而不是一个道德义务的要求。
汤姆森本人就是从这个角度论述的,而且得到了卡姆的支持。
汤姆森和卡姆共同认为,旁观者在道德上不会被要求去牺牲生命以拯救五个人,这样做将会是利他主义的;而且卡姆还补充道:这种做法是分外的或超义务的(supererogatory)。
〔17〕显然,自付代价是一个过高的道德要求。
它只能作为一种美德来表扬,甚至都不能作为一种美德来提倡。
多数情况下,自我牺牲一般发生在负有职责义务的场合,比如基于某种身份(消防员、警察等)而产生的义务,它来自某种制度性安排;除此之外就属于罗尔斯意义上的份外行为(supererogatoryactions),它大大超出了自然责任的要求。
自付代价不是一个人的义务或责任,对此罗尔斯指出:“尽管我们有一个自然责任去产生极大的善(比如说,如果我们能够相对容易地做到这一点),但是当我们自己要付出很大成本时,就被解除了这一责任。
”〔18〕这也正如卡姆在评论汤姆森时所说的,汤姆森的看法依据的是非后果主义伦理理论的另一个方面:“总的来说,一个人没有义务要让自己付出极端的代价去做会产生最大善好的事情,即使这样做并不会违反任何边际约束。
”〔19〕
最后,从后果主义来说,如果不优先保护乘客的生命与健康,那么这将成为自动驾驶技术商业化的重大障碍。
风险本身并不构成限制技术商业化的主要因素,只要风险本身是可控的,就可以满足商业化的要求。
有人驾驶汽车在风险上和造成的社会后果上远远高于无人驾驶,也一样在商业化运用,因为这符合市场化或商业化的基本要求。
如果自动驾驶汽车在遇到隧道难题时先牺牲乘客,那么它恐怕永远都无法商业化,因为这样的产品是没人敢用的。
三、再访权利的边际限制:电车难题的法哲学解决方案
显然,优先保护乘客似乎合理,因为不能假设他会选择自我牺牲;从一个公平的角度出发而言,每个人都不愿做出自我牺牲,除非得到他的同意。
三项选择案例确实不同于两项选择案例,因为“自付代价”这一因素的加入严重影响了我们接下来所探究的碰撞选择的理由。
下文将重点研究道德哲学关于电车难题的诸多争议,并在批判的基础上尝试提出基于法哲学的自动驾驶系统电车难题的解决方案。
(一)伤害的边际约束与可允许的伤害原则
在旁观者三项选择案例中,要做出选择的是那个旁观者本人;如果他可以正当地不愿选择撞向自己,那么他可以正当地改变电车方向而撞向另外一个无辜的人吗?实际上在这一案例中,除了袖手旁观,其余的两种选择在理由上是高度关联的,汤姆森就是从这个角度深刻论证了旁观者只能袖手旁观,而不能使其他人付出他自己都不愿付出的代价。
根据卡姆的解读,这一论证似乎是形式上的,即诉诸一种论证上的平等原则。
因为三项选择的案例不同于两项选择的案例,这种不同不仅在于添加了一个选项,更在于添加的这个选项会影响其他选择的理由。
也就是说,选项三可以正当地不被采纳,但它的存在会影响选项二。
比如在三项选择案例中,在自己和他人之间要进行平等对待这一形式原则,就会要求也不可以正当地采纳选项二。
而没有选项三时,该案例就是一个普通的电车难题,无需遵循上述原则,转而会考虑其他的原则;因此一般认为,可以为了更大的善好而以某种特定的方式牺牲一个人。
〔20〕
三项选择案例中的旁观者在道德重要性上似乎与其他人是不同等的,因为有一项选择涉及旁观者的自我牺牲,所以该选项的加入影响了其他选择。
而优先保护自动驾驶汽车中的乘客也类似于这样一个有着道德重要性的因素,那么这一形式原则会不会影响对自动驾驶汽车碰撞伦理的思考呢?无论是作为一项道德原则还是作为一项法律原则,对生命权本身的衡量都需要经过慎重考虑;因为一般认为生命权是平等的,而且这种平等是绝对的。
汤姆森后来的看法是旁观者不可以为了救五个人而杀死一个人,而且这一点与关于旁观者应是否自我牺牲的讨论紧密关联;而且她还认为,无论是旁观者的两项选择案例还是三项选择案例都是如此。
其主要理由是,旁观者本人和被选择的那个工人都无需为了救那五个人而付出代价:“如果旁观者想要付出代价,他就必须自己来付出这个代价。
我强调一下:如果旁观者不想自己付出代价,并因此也将不会自己付出代价,那么他就必须让这一代价不发生在任何人身上。
然而,假如最终证明旁观者只有‘旁观者’案例所描述的两个选项。
旁观者仍然不可以搬动岔道以至于杀死工人,因为他和工人都无需为了救那五个人而付出这样的代价;因此,既然旁观者自己不能付出这一代价(不管他愿不愿意),他必须放任五个人去死。
”〔21〕
汤姆森改变了她以往的看法,她曾经赞同旁观者可以获得允许去改变电车方向。
总体上说,汤姆森的看法属于少数派。
许多人认为可以允许,这也符合大多数人的直觉。
卡姆批评了汤姆森的这一看法,其反对意见集中在两个方面:一是对平等主义的方法论提出质疑,从选项三到选项二的平等主义推导过程是存在问题的,也就是说类比的对象存在偏差;二是从实质上说,如果存在一个自足的理由能够切断从选项三到选项二的推导过程,那么我们就可以基于独立而自足的理由说,旁观者可以做出第二种选择。
实际上这种理由是存在的,那就是卡姆所说的“可允许的伤害原则”。
通过这一切断,卡姆实际上把三项选择难题又变为了两项选择难题;从这一点我们也许可以看出,旁观者的三项选择难题不具有独立的意义,最后又返回到传统的旁观者难题。
在更为深入地讨论自动驾驶汽车特有的碰撞难题之前,我们先概述一下卡姆对汤姆森的反对意见。
······
作者其他论文
人类基因编辑的伦理与法律规制朱振/检察风云/2019年第24期依据规则的推理约瑟夫·拉兹;朱振/《法律方法》/2019年第3期作为方法的法律传统——以"亲亲相隐"的历史命运为例朱振/《国家检察官学院学报》/2018年第4期反对完美?——关于人类基因编辑的道德与法律哲学思考朱振/《华东政法大学学报》/2018年第1期更多>>
微信“扫一扫”
法信App“扫一扫”
操作提示
对不起,您尚未登录,不能进行此操作!
点此登录
微信
QQ
QQ空间
腾讯微博
新浪微博
豆瓣
纯文本
Word
超文本
PDF
下载的文件类型:
无
保留基本属性信息
保留正文中的分类词信息
取消确认
删除保存
文件类型
纯文本
Word
超链接
pdf
接收邮箱
发送重置
取消收藏
收藏
请到“个人中心-我的收藏”查看收藏结果
稿件标题
投稿类别
请选择
学术论文
案例评析
代理词\辩护词
稿件内容
(限2000字以内)
稿件附件
文件上传成功!
支持的文件格式:.jpg|.png|.gif|.txt|.pdf|.doc|.docx|.rar|.zip
取消保存投稿
标亮
查找:
查找
上一个
下一个0,共0
分享
下载
打印
全文批注
发邮件
收藏
投稿
全文查找
复制 | 笔记 | 分享内容已经成功复制到粘帖板笔记备注
关联法条
延伸文章資訊
- 1生命的衡量——自动驾驶汽车如何破解"电车难题" - 法信
自动驾驶汽车如何破解“电车难题”. 朱振*. 目次一、视角与难题:碰撞选择在伦理和法理上的真正挑战二、自我保存:从个体选择到制度确认三、再访权利的边际限制:电车 ...
- 2人類十大思想實驗,那個無解的「電車難題」,被一群網友破解 ...
關於「電車難題」的解決答案,也就是科學家們所想要尋找的「道德第一基準」(評判道德優劣的底層基礎),在這長達半個世紀的探索中仍未找到最為為人所信服 ...
- 3網友分享破解《有軌電車難題》不用殺任何人的解法就是整台車 ...
其實這個「有軌電車難題」一直是網路上網友常常拿來討論的問題,也一直有人試圖破解(或是用開玩笑的方式破解),不過最近有一位推友「@Btoretsukuru」 ...
- 4影/10大經典倫理題!大人想破頭兩歲男孩竟秒破解 - 三立新聞
這是10大經典倫理學思想實驗之一的「電車難題」(The Trolley Problem),已經難倒不少大人,但國外一名才兩歲的小男孩竟然想都不想就找出最完美的 ...
- 5NO.866 如何破解“电车难题”? - 逻辑思维IO
NO.866 如何破解“电车难题”?_《罗辑思维》第七季_逻辑思维IO.