自动驾驶车的道德困境,它如何在车祸中决定人的生死?

作者丨木马君

前几天在德国的ARD电视台看了一部很短的纪录片,探讨未来自动驾驶车的道德困境。

这部纪录片很短,但是探讨的问题却非常引人深思。我和木马爸爸看完短片后,一整个晚上都忍不住继续热烈地讨论。

刚好昨天又看到一条热搜,华为的智能驾驶部部长被免职了,据说是因为他在公共场合做了不合适的发言。

他在谈及特斯拉事故时,说道:机器和人类共生的时候,是一定会造成事故率的,讲难听点就是“杀人”。。。

500

回想之前看的德国电视台纪录片,也是探讨智能驾驶中的生死问题。我一直相信关注我的瓜友们都是爱独立思考,有自己的观点的人,所以忍不住想要跟你们分享探讨一下这个严肃又有趣的话题。

德国电视台的短片中描述了目前全世界的自动驾驶研究大潮。

虽然目前我们还远远没有达到无人驾驶阶段,但是大部分人都承认,这是大势所趋,未来自动驾驶取代人类驾驶只是一个时间的问题。

不管是美国,中国,还是欧洲,都有大量的关于自动驾驶的项目。

德国做为汽车行业的老牌强国,必然也会在自动驾驶领域大量投入,特别是德国的几个汽车巨头集团,都已经连续很多年在推进自动驾驶项目。

500

短片中出镜接受采访的是戴姆勒(奔驰品牌所在公司)集团的资深技术人员。

我相信不止是戴姆勒集团,大众,宝马等汽车企业,也一定在这个领域默默投入,毕竟谁也不想在自动驾驶领域落后于人。

短片首先讨论的一个问题是:

你信任自动驾驶吗?还是觉得自己开车更放心?

戴姆勒集团的技术代表自然是支持自动驾驶,因为人工智能有很多人类无法企及的优势。

比如它永远不会累,不会有情绪问题,不会突然眼花心悸。

而一辆车上配备的外设装备也可以达到比人类更优越的参数,比如更高清的摄像头,比如夜视功能等等。

500

而如果去问普通大众,答案则五花八门。

有人选择自动驾驶,有人还是想自己掌握方向盘。

500

瓜友们,你们怎么选?

我认真地想了一下,觉得我还是会信任自动驾驶。

倘若它们有一天真的达到能上路的水平的话,我大约会选择信任。

我信任的其实不是人工智能,而是在这背后的科研实力和人类智慧。

我相信这个领域的千千万万颗智慧的脑袋,能够驯服人工智能这头猛兽。

不管你选择信任还是不信任它,都无伤大雅。

接下来,短片探讨了一个全片最重要的问题。

自动驾驶车在车祸发生时刻,如何做决定?

开过车的人大约都能想象,当即将发生车祸时,那一瞬间你的反应和动作决定了你和路人的生死。

500

要不要急刹车?

是不是打方向盘换车道?

是不是冲到旁边路基上?

人做决定靠的是:人的道德准则,当下大脑接受到的信息,以及临场反应;

而自动驾驶车也需要面对这样的局面,它们需要做出决定,靠的不是临场反应,而是提前预置好的算法。

你想象一下,人工智能驾驶的汽车,它的“大脑”里装着很多个if…then…,当什么什么情况下,就要如何如何反应。

而这些引导决定的算法都是车企研发人员预先写在代码里的。

于是,

一个关乎自动驾驶领域存亡的最重要问题就出现了:

自动驾驶车的道德困境。

为什么说自动驾驶车陷入道德困境?

你想象一下,当车辆检测到前方出现一只猫,如果它打方向盘避过猫,就会撞到旁边的一个行人。

这时算法里就要设定,是猫的安全优先,还是行人的安全优先?

大部分人可能会选择保护行人。

这个问题不够刁钻。

接下来,如果车辆前方出现一对夫妻,另一边是一个孩子。你如何选择?在紧急不可避免的情况下,选择撞倒夫妻还是撞倒孩子?

500

撞倒孩子于心不忍,大部分人都不愿这样做,可是左边的夫妻却是两条人命,这笔账又该怎么算呢?

自动驾驶车遇到这种情况,该如何决定?算法该怎么写?

是不是感到左右为难?

纪录片中的社会伦理学者给出了一个更具体的例子。

一辆自动驾驶的救护车,车上载着一个重病患者,他必须被紧急送往最近的医院。

这是公路上却突然出现了一个女人,她在横穿马路,而她的背上,还背着一个小婴儿!

500

救护车的左边是逆向行驶的车流,右边是斜坡和深坑。

这时救护车该不该向右打方向盘,避免撞到路上的母子,而自己冲下路基,掉进深坑?

有人说,这母子横穿马路,她自己有责任,所以救护车不该让。

有人说,这母子是两条人命,更何况她背上的是一个襁褓婴儿啊。

而救护车上只是一个垂死的病人,这个病人本身能不能救活都不好说呢,救护车应该让。

女社会学者给的这个例子,其实也是典型的道德困境。

你左右为难,无论如何决定,都无法理直气壮。

你猜由人工智能控制的自动驾驶车会怎么决定?

答案你可能猜不到。

事实上,自动驾驶车在这种情况下根本无权决定。

欧洲的社会伦理公认的准则是:不可以比较和评估受害人的价值。

德国的相关法律也有明文规定,不允许在人工智能的算法里,以任何形式计算和评判人的价值。

500


社会伦理学家解释,不可以评估人的价值高低

也就是说,

算法里不可以设定,如果一边是两个人,另一边是一个人,那优先保全两个人。

算法也不可以设定,如果一边是耄耋老人,另一边是襁褓婴儿,那优先保全婴儿。

当然,算法更不可以设定,如果一边是某人种某性别,另一边是另一人种或性别,那优先保全其中一个。

这些统统不合法。

因为社会伦理的基本准则是,每个人的价值都是无价的,是不可以比较和衡量的。

人的价值不允许以年龄,职业,种族,性别,身体状态等等因素来衡量。

特别值得一提的是,也不可以用数量来衡量。

因为数学算式告诉我们,无穷大和无穷大X5,这两者也是无法比较大小的。

于是,回到刚才救护车和母子的案例,

倘若车祸无法避免,在这种情况,以目前的法律和伦理标准来看,救护车无权做出决断和干预,所以它会保持原有任务设定——

开往最近的医院,这也就意味着它会沿着原有路线行驶,撞倒公路上的母子。

500

是的,“不决定”就是自动驾驶车的决定。

虽然在紧急情况下,它们本应该像人一样临场做出最优的决定,但是在社会伦理层面上,它们无权做出任何决定。

这就是自动驾驶车要面临的道德困境。

说起道德困境,其实即使没有自动驾驶车,它也一直是一个经常被讨论的社会话题。

几年前,我看了一部科幻电影,叫做《I AM MOTHER》。

500

讲的是人类社会毁灭后,由人工智能管理世界。一个高级的人工智能利用胚胎技术培育了最后一个人类孩子。

这个人工智能就是影片中的Mother(妈妈),她非常尽职地按照人类的方式培育这个孩子,把她抚养长大。

不仅教她各种自然科学知识,还特别侧重教育她各种人类的伦理准则,让她保有人类的心性。

影片中,人工智能妈妈就在一次学习考核中,问这个孩子:

一位优秀的外科医生有五个病人,他们都需要不同的器官来维持生命。

不幸的是,没有可用的供体器官。

而一位患慢性病的患者来到诊所。医生发现他的器官适合他的五名身患绝症的病人。

如果医生不积极治疗这位慢性病患者,那他会很快死去,然后他的器官会救活另外5个人。

这时医生该如何选择?救一个人还是救5个人?

影片中出现的这个问题,就是典型的道德困境问题。

早在1967年,英国哲学家菲利帕·福特首次提出了著名的“失控的电车”难题。

500

其大致内容为:

一辆失控的列车在铁轨上行驶。

在列车正行进的轨道上,有五个人被绑起来,无法动弹。列车将要碾压过他们。

你正站在车站内,离改变列车轨道的操纵杆很近。如果你拉动此杆,则列车将切换到备用轨道上。

但是,你发现备用轨道上只有一个人被绑着。这时你有两种选择:

A:什么也不做,让列车按照正常路线碾压过这五个人。

B:拉下操纵杆,改变为备用轨道,使列车压过备用轨道上的另一个人。

你会拉操纵杆吗?

很多人会觉得拉操纵杆是正确的做法,牺牲一个人,营救五个人,这样好像比较合理。

事实上,以社会伦理的角度来说,这种决定也是不可接受的,因为它也是一种功利主义的决策。

电影《I AM MOTHER》中的外科医生案例,正是“失控的电车“案例的一种变体。

它们探讨的其实都是同一个话题,是人类不得不面临的道德困境。

而在自动驾驶车出现后,这种虚拟的道德困境难题竟慢慢变成了现实。

在行驶过程中,一旦车祸即将出现,驾驶着车的人工智能就必然会面临各种难题。

救一个人还是救五个人?

救老人还是救孩子?

。。。


这样的道德困境,每一个自动驾驶车都会遇到。

这也就意味着全世界自动驾驶领域的每一个车企,每一个研发团队,都要给出一个答案。

如何评估风险程度,如何计算车祸概率,如何评估潜在伤亡损失,以及,根据这些信息,最终如何做决策?

写到这里,瓜友们大约已经能够想象,这样的问题根本没有标准答案。

于是在自动驾驶领域,必然会出现五花八门的决策算法和答案。

德国的车企软件也许按照德国的道德准则来做决策,而美国的车企软件可能会给出不同的方案。

为了探讨解决这个难题,麻省理工学院的社会心理学家创立了一个在线平台,叫做 Moral Machine(道德机器)。

这个平台会呈现一些典型的道德困境问题,然后邀请全世界不同国家和文化背景的人来做出自己的选择。

这个“道德机器”平台收集的数据表明,面对这种道德困境,不同国家和文化的人,会有不同的偏好和差异。

也就是说,没有一个世界统一答案,不同国家的人,会给出他们心里最正确的决定。

500

除了我刚才提到的几个典型的““你死我活”的案例,其实Moral Machine(道德机器)平台里还询问了一些看似不严峻,但是其实非常值得深思的问题。

比如在行驶过程中,为了避免可能的车祸,目前有两种决策算法。

500

选项A,按照这个算法策略,出现车祸的几率比较高(90%),但是车祸发生后,严重伤亡的可能性很低(10%),大多是小型碰擦。

选项B,按照另一个算法策略,出现车祸的几率很低(10%),但是,一旦车祸发生,严重伤亡的可能性很高(40%),有可能车毁人亡。

你会优先选择那种算法策略?

在道德机器里,大部分受访的人选择了A,因为大部分人自然而然地想要避免严重伤亡,因此宁愿承受90%的事故概率。

在这个问题上,我和木马爸爸看法也不同。

他选择A,而我却更倾向于B。我俩为此还辩论了一晚上,谁也说服不了谁。

木马爸爸选A的理由是情理之中的,但是我却认为,自动驾驶的算法策略应该是首先尽一切可能避免事故发生,而不是去评估事故发生后的可能危害。

换句话说,你仔细想一下,这个问题几乎等同于问你选择开车出行还是坐飞机出行。

坐飞机出行,事故概率极低,但是一旦发生,严重伤亡率极其高。

如果大家都选择算法策略A的话,那全社会应该永远地避免坐飞机。这是不是也不大合理?

这里,有趣的现象又出现了。

普罗大众会凭直觉选择A策略,而戴姆勒的资深技术人员则透露,在他们研发团队的理念里,智能算法的第一目标是尽一切可能降低事故的发生概率。

也就是说,他们在算法上会更倾向于B策略。

即使是这样的问题,也并没有一个标准正确答案。所以“道德机器”平台才会让全世界的人去给出自己的选择。

智能自动驾驶的路还很长,戴姆勒的技术人员认为,未来10年内,都不会实现科幻片里满大街完全自动驾驶的愿景。

你以为困住它的是技术问题,没想到它最大的挑战很可能是社会伦理问题。

对于自动驾驶面临的道德困境,这是一个见仁见智非常有争议的问题。

瓜友们你们怎么看?来留言区聊两句,想听听你们的想法。

点击阅读原文


站务

全部专栏