Uncategorized

只能一个人做的思想实验: 列车难题

只能一个人做的思想实验: 列车难题

有研究人员预测,到 2025 年,也就是 5 年以后,将会有大约 800 万辆无人汽车在路上行驶。 其实在这个过程中,除了解决各种技术问题之外,自动驾驶还会面临着伦理方面的难题。

今天我们就来聊一个伦理学的思想实验:电车难题。一辆失控的列车在铁轨上行驶。在列车正行进的轨道上,有五个人被绑起来,无法动弹。列车将要碾压过他们。您正站在车站内,离改变列车轨道的操纵杆很近。如果您拉动此杆,则列车将切换到备用轨道上。但是,在备用轨道也有一个人被绑着。您有两种选择:

  • 什么也不做,让列车按照正常路线碾压过这五个人。
  • 拉下操纵杆,改变为备用轨道,使列车压过备用轨道上的另一个人。

请仔细考虑一下,你会怎么做呢?你做出的决定又是出于什么样的考虑呢?

这是列车难题的初始版本,由英国哲学家菲利帕.福特在 1967 年首次提出,之后又在初始版本的基础之上,加入了各种条件演化出了一些其他的更复杂的场景。接下来就让我们依次置身于这些场景当中,做出我们自己的选择。

在 2017 年之前, 关于这个问题有过多年的调查,但没有一项研究是研究人们在栩栩如生的环境中面对真实的潜在受害者时会如何反应的。其中的有一项实验是让参与者戴着头戴式虚拟现实设备来模拟出这个情境的,结果是有 90%的人选择为了救下 5 个人而牺牲那一个人。

如果说牺牲 1 个人去拯救 5 个人符合了大多数人内心中道义的标准,那么接下来的数据则有所不同:如果那一个人是被试者的孩子、父母或者兄弟姐妹时,只有 1/3 的人会选择拉下操纵杆。 在这个时候, 道义的标准去哪里呢了?论文的最后,作者发出了这样的评论 “所有这些都告诉我们关于人性的什么? 进化使我们变得野蛮而自私。 我们会瞬间做出导致谋杀的决定 – 除非涉及到家庭成员。”

直到 2017年,由迈克尔·史蒂文斯领导的小组进行了第一个实际的电车问题实验,他们制造了一个假的火车调度室,并在调度室屏幕上播放预先录制好的视频,是为了使受试者确信,如果不去拉操纵杆改变火车的车道,火车将撞死五个人,如果拉了操纵杆,火车将撞死一个人。结果是,大多数参与者没有拉操纵杆。只有两个人拉了操纵杆。 其中一位拉了操纵杆的男士在得知这只是一项实验之后,不禁泪流满面。 迈克尔·史蒂文斯就是著名的 YouTuber,Vsauce。该视频链接我放在描述栏中。

也许选择没有对错, 只是体现了不同的价值观。 这个两难问题涉及了人对群体利益和个体利益之间的取舍。其实不同的选择对应着两种完全对立的哲学思想。

一种是“功利主义”。 从功利主义角度看,为追求对大多数人来说的最大利益,是可以牺牲少数人的利益的。因此,为了拯救 5 个人的生命,就可以牺牲掉这一个人。

另外一种是源自康德主义的“道德义务论”, 道德应该建立在必要的义务责任上。如果不可以杀人是一种道德义务,就不可以动手让一个人牺牲,即使这个行为的后果是牺牲五个人。

关于电车问题的第二个版本, 能体现出更多的含义。

还是那个电车,在电车正常行驶的轨道前方,有 5 个正在轨道上玩耍的人。但是轨道旁边还有一条废弃的轨道, 上面只有 1 个正在玩耍的人。这时候,如果你不扳道岔,那 5 个人会被撞死; 如果你扳了道岔,那 1 个人会被撞死。

这个版本和第一个版本的区别在哪里呢? 第一,这几个人是自发来到轨道上的,不是被绑来的。 第二,其中一个轨道是废弃的。 大家都知道, 在使用中的轨道上玩耍是被禁止的行为,而在废弃的轨道上玩耍则是无可厚非的。因此,这个问题实际上就变成了: 为了拯救 5 个违规的人的生命, 你是否会去牺牲 1 个无辜的人?

那么,这次,你是扳还是不扳呢?

再看第三个版本:胖子。

你站在天桥上,看到有一台刹车损坏的电车。在轨道前方,有五个正在工作的人,他们不知晓电车向他们冲来。一个大胖子正好站在你身边,你发现他的体重,正好可以挡住电车,让电车出轨,不致于撞上那五个工人。你是否应该动手,把这个大胖子从天桥上推下去阻挡电车,以拯救那五个工人?还是应该坐视电车撞上那五个工人?

关于这个问题的调查结果与第一个版本问题的调查结果完全相反,在第一个版本的调查中,大多数人选择拉操纵杆来牺牲 1 个人拯救 5 个人,而在这个版本的调查中,大多数人都不赞成推胖子去挽救工人。

这就出现了一个矛盾:为什么同样是牺牲一条性命拯救五条性命,大多数人却会做出相反的选择——同意“扳道岔让火车撞死 1 个人”,但反对“推下去 1 个人”。这是为什么呢?

有一种解释来自于“双重效应”理论。这种学说认为一个人可能会采取具有不良副作用的行动,同时也认为故意造成伤害(即使是出于充分的原因)也是错误的。也就是说, 在第一种情况下, 那 1 个被牺牲的人属于附带伤害。因为,扳道岔是我们为了拯救那 5 个人采取的行动, 也是我们从道义的出发点做出的正确选择, 而因此导致 1 个人的牺牲只是这个行动的副作用。 但是在“胖子”的问题中,就不同了。“把胖子从天桥推下去”变成了我们需要采取的行动,而这一点是违背大多数人的道德准则的。

如果你是这大多数人中的一位,那么咱们再来看看最后一个版本:二次变轨。和以前一样,列车沿着一条铁轨驶向五个人,您可以将其转向到第二条铁轨上。但是,列车在转向第二条轨道后行驶一段又会重新变轨至主要轨道,因此列车仍在通往5个人的轨道上行驶。但是,第二条轨道上有一个胖子,当他被列车撞死时,将会让列车出轨从而阻止列车继续行驶到有五个人的铁轨上。

这时候,你应该拉动操纵杆吗? 你的选择和你前面的选择有没有保持一致性呢?看到这里,大家觉得“二次变轨”这个版本是和原始版本类似呢还是和“胖子”版本类似? 很多人觉得和原始版本是类似的, 都认为应该去扳道岔。 但是,这个版本的本质同样是把“主动牺牲掉胖子”作为我们拯救 5 个人所采取的行动, 区别只是在于一个是把他推下去,一个是让火车去撞他而已, 为什么大家答案就不一样了呢?

当然,还有其他的一些版本。但是这 4 个版本已经足够让我们思考了, 如果你做出了自己的选择, 那么请尝试清除掉自己的记忆, 然后从最后一个版本倒着向前回答, 看看是否和之前的回答不一样。 说起来似乎很简单的“做正确的事”,“讲道德”,他们的定义和界限又在哪里呢?

我们再回到自动驾驶汽车。在自动驾驶汽车的软件设计中也会出现与电车问题类似的问题。可能发生这样的情况:致命性碰撞似乎是不可避免的,但是汽车软件做出的选择(例如撞向谁或撞到什么东西)会影响到后果。这时候,谁才有权利来确定软件应该如何选择呢?

麻省理工学院媒体实验室创建了一个名为“道德机器”的平台,使公众可以就使用电车问题为模版的场景中对自动驾驶汽车应做出的决定发表意见。大家可以做出自己的选择,然后看看和世界上其他人的选择对比的结果。建议大家单独去做这个实验,避免和同伴因为价值观不合而争吵。