自动驾驶车的道德困境,它如何在车祸中决定人的生死?
作者丨木马君
前几天在德国的ARD电视台看了一部很短的纪录片,探讨未来自动驾驶车的道德困境。
这部纪录片很短,但是探讨的问题却非常引人深思。我和木马爸爸看完短片后,一整个晚上都忍不住继续热烈地讨论。
刚好昨天又看到一条热搜,华为的智能驾驶部部长被免职了,据说是因为他在公共场合做了不合适的发言。
他在谈及特斯拉事故时,说道:机器和人类共生的时候,是一定会造成事故率的,讲难听点就是“杀人”。。。
回想之前看的德国电视台纪录片,也是探讨智能驾驶中的生死问题。我一直相信关注我的瓜友们都是爱独立思考,有自己的观点的人,所以忍不住想要跟你们分享探讨一下这个严肃又有趣的话题。
德国电视台的短片中描述了目前全世界的自动驾驶研究大潮。
虽然目前我们还远远没有达到无人驾驶阶段,但是大部分人都承认,这是大势所趋,未来自动驾驶取代人类驾驶只是一个时间的问题。
不管是美国,中国,还是欧洲,都有大量的关于自动驾驶的项目。
德国做为汽车行业的老牌强国,必然也会在自动驾驶领域大量投入,特别是德国的几个汽车巨头集团,都已经连续很多年在推进自动驾驶项目。
短片中出镜接受采访的是戴姆勒(奔驰品牌所在公司)集团的资深技术人员。
我相信不止是戴姆勒集团,大众,宝马等汽车企业,也一定在这个领域默默投入,毕竟谁也不想在自动驾驶领域落后于人。
短片首先讨论的一个问题是:
你信任自动驾驶吗?还是觉得自己开车更放心?
戴姆勒集团的技术代表自然是支持自动驾驶,因为人工智能有很多人类无法企及的优势。
比如它永远不会累,不会有情绪问题,不会突然眼花心悸。
而一辆车上配备的外设装备也可以达到比人类更优越的参数,比如更高清的摄像头,比如夜视功能等等。
而如果去问普通大众,答案则五花八门。
有人选择自动驾驶,有人还是想自己掌握方向盘。
瓜友们,你们怎么选?
我认真地想了一下,觉得我还是会信任自动驾驶。
倘若它们有一天真的达到能上路的水平的话,我大约会选择信任。
我信任的其实不是人工智能,而是在这背后的科研实力和人类智慧。
我相信这个领域的千千万万颗智慧的脑袋,能够驯服人工智能这头猛兽。
不管你选择信任还是不信任它,都无伤大雅。
接下来,短片探讨了一个全片最重要的问题。
自动驾驶车在车祸发生时刻,如何做决定?
开过车的人大约都能想象,当即将发生车祸时,那一瞬间你的反应和动作决定了你和路人的生死。
要不要急刹车?
是不是打方向盘换车道?
是不是冲到旁边路基上?
人做决定靠的是:人的道德准则,当下大脑接受到的信息,以及临场反应;
而自动驾驶车也需要面对这样的局面,它们需要做出决定,靠的不是临场反应,而是提前预置好的算法。
你想象一下,人工智能驾驶的汽车,它的“大脑”里装着很多个if…then…,当什么什么情况下,就要如何如何反应。
而这些引导决定的算法都是车企研发人员预先写在代码里的。
于是,
一个关乎自动驾驶领域存亡的最重要问题就出现了:
自动驾驶车的道德困境。
为什么说自动驾驶车陷入道德困境?
你想象一下,当车辆检测到前方出现一只猫,如果它打方向盘避过猫,就会撞到旁边的一个行人。
这时算法里就要设定,是猫的安全优先,还是行人的安全优先?
大部分人可能会选择保护行人。
这个问题不够刁钻。
接下来,如果车辆前方出现一对夫妻,另一边是一个孩子。你如何选择?在紧急不可避免的情况下,选择撞倒夫妻还是撞倒孩子?
撞倒孩子于心不忍,大部分人都不愿这样做,可是左边的夫妻却是两条人命,这笔账又该怎么算呢?
自动驾驶车遇到这种情况,该如何决定?算法该怎么写?
是不是感到左右为难?
纪录片中的社会伦理学者给出了一个更具体的例子。
一辆自动驾驶的救护车,车上载着一个重病患者,他必须被紧急送往最近的医院。
这是公路上却突然出现了一个女人,她在横穿马路,而她的背上,还背着一个小婴儿!
救护车的左边是逆向行驶的车流,右边是斜坡和深坑。
这时救护车该不该向右打方向盘,避免撞到路上的母子,而自己冲下路基,掉进深坑?
有人说,这母子横穿马路,她自己有责任,所以救护车不该让。
有人说,这母子是两条人命,更何况她背上的是一个襁褓婴儿啊。
而救护车上只是一个垂死的病人,这个病人本身能不能救活都不好说呢,救护车应该让。
女社会学者给的这个例子,其实也是典型的道德困境。
你左右为难,无论如何决定,都无法理直气壮。
你猜由人工智能控制的自动驾驶车会怎么决定?
答案你可能猜不到。
事实上,自动驾驶车在这种情况下根本无权决定。
欧洲的社会伦理公认的准则是:不可以比较和评估受害人的价值。
德国的相关法律也有明文规定,不允许在人工智能的算法里,以任何形式计算和评判人的价值。
社会伦理学家解释,不可以评估人的价值高低
也就是说,
算法里不可以设定,如果一边是两个人,另一边是一个人,那优先保全两个人。
算法也不可以设定,如果一边是耄耋老人,另一边是襁褓婴儿,那优先保全婴儿。
当然,算法更不可以设定,如果一边是某人种某性别,另一边是另一人种或性别,那优先保全其中一个。
这些统统不合法。
因为社会伦理的基本准则是,每个人的价值都是无价的,是不可以比较和衡量的。
人的价值不允许以年龄,职业,种族,性别,身体状态等等因素来衡量。
特别值得一提的是,也不可以用数量来衡量。
因为数学算式告诉我们,无穷大和无穷大X5,这两者也是无法比较大小的。
于是,回到刚才救护车和母子的案例,
倘若车祸无法避免,在这种情况,以目前的法律和伦理标准来看,救护车无权做出决断和干预,所以它会保持原有任务设定——
开往最近的医院,这也就意味着它会沿着原有路线行驶,撞倒公路上的母子。
是的,“不决定”就是自动驾驶车的决定。
虽然在紧急情况下,它们本应该像人一样临场做出最优的决定,但是在社会伦理层面上,它们无权做出任何决定。
这就是自动驾驶车要面临的道德困境。
说起道德困境,其实即使没有自动驾驶车,它也一直是一个经常被讨论的社会话题。
几年前,我看了一部科幻电影,叫做《I AM MOTHER》。
讲的是人类社会毁灭后,由人工智能管理世界。一个高级的人工智能利用胚胎技术培育了最后一个人类孩子。
这个人工智能就是影片中的Mother(妈妈),她非常尽职地按照人类的方式培育这个孩子,把她抚养长大。
不仅教她各种自然科学知识,还特别侧重教育她各种人类的伦理准则,让她保有人类的心性。
影片中,人工智能妈妈就在一次学习考核中,问这个孩子:
一位优秀的外科医生有五个病人,他们都需要不同的器官来维持生命。
不幸的是,没有可用的供体器官。
而一位患慢性病的患者来到诊所。医生发现他的器官适合他的五名身患绝症的病人。
如果医生不积极治疗这位慢性病患者,那他会很快死去,然后他的器官会救活另外5个人。
这时医生该如何选择?救一个人还是救5个人?
影片中出现的这个问题,就是典型的道德困境问题。
早在1967年,英国哲学家菲利帕·福特首次提出了著名的“失控的电车”难题。
其大致内容为:
一辆失控的列车在铁轨上行驶。
在列车正行进的轨道上,有五个人被绑起来,无法动弹。列车将要碾压过他们。
你正站在车站内,离改变列车轨道的操纵杆很近。如果你拉动此杆,则列车将切换到备用轨道上。
但是,你发现备用轨道上只有一个人被绑着。这时你有两种选择:
A:什么也不做,让列车按照正常路线碾压过这五个人。
B:拉下操纵杆,改变为备用轨道,使列车压过备用轨道上的另一个人。
你会拉操纵杆吗?
很多人会觉得拉操纵杆是正确的做法,牺牲一个人,营救五个人,这样好像比较合理。
事实上,以社会伦理的角度来说,这种决定也是不可接受的,因为它也是一种功利主义的决策。
电影《I AM MOTHER》中的外科医生案例,正是“失控的电车“案例的一种变体。
它们探讨的其实都是同一个话题,是人类不得不面临的道德困境。
而在自动驾驶车出现后,这种虚拟的道德困境难题竟慢慢变成了现实。
在行驶过程中,一旦车祸即将出现,驾驶着车的人工智能就必然会面临各种难题。
救一个人还是救五个人?
救老人还是救孩子?
。。。
这样的道德困境,每一个自动驾驶车都会遇到。
这也就意味着全世界自动驾驶领域的每一个车企,每一个研发团队,都要给出一个答案。
如何评估风险程度,如何计算车祸概率,如何评估潜在伤亡损失,以及,根据这些信息,最终如何做决策?
写到这里,瓜友们大约已经能够想象,这样的问题根本没有标准答案。
于是在自动驾驶领域,必然会出现五花八门的决策算法和答案。
德国的车企软件也许按照德国的道德准则来做决策,而美国的车企软件可能会给出不同的方案。
为了探讨解决这个难题,麻省理工学院的社会心理学家创立了一个在线平台,叫做 Moral Machine(道德机器)。
这个平台会呈现一些典型的道德困境问题,然后邀请全世界不同国家和文化背景的人来做出自己的选择。
这个“道德机器”平台收集的数据表明,面对这种道德困境,不同国家和文化的人,会有不同的偏好和差异。
也就是说,没有一个世界统一答案,不同国家的人,会给出他们心里最正确的决定。
除了我刚才提到的几个典型的““你死我活”的案例,其实Moral Machine(道德机器)平台里还询问了一些看似不严峻,但是其实非常值得深思的问题。
比如在行驶过程中,为了避免可能的车祸,目前有两种决策算法。
选项A,按照这个算法策略,出现车祸的几率比较高(90%),但是车祸发生后,严重伤亡的可能性很低(10%),大多是小型碰擦。
选项B,按照另一个算法策略,出现车祸的几率很低(10%),但是,一旦车祸发生,严重伤亡的可能性很高(40%),有可能车毁人亡。
你会优先选择那种算法策略?
在道德机器里,大部分受访的人选择了A,因为大部分人自然而然地想要避免严重伤亡,因此宁愿承受90%的事故概率。
在这个问题上,我和木马爸爸看法也不同。
他选择A,而我却更倾向于B。我俩为此还辩论了一晚上,谁也说服不了谁。
木马爸爸选A的理由是情理之中的,但是我却认为,自动驾驶的算法策略应该是首先尽一切可能避免事故发生,而不是去评估事故发生后的可能危害。
换句话说,你仔细想一下,这个问题几乎等同于问你选择开车出行还是坐飞机出行。
坐飞机出行,事故概率极低,但是一旦发生,严重伤亡率极其高。
如果大家都选择算法策略A的话,那全社会应该永远地避免坐飞机。这是不是也不大合理?
这里,有趣的现象又出现了。
普罗大众会凭直觉选择A策略,而戴姆勒的资深技术人员则透露,在他们研发团队的理念里,智能算法的第一目标是尽一切可能降低事故的发生概率。
也就是说,他们在算法上会更倾向于B策略。
即使是这样的问题,也并没有一个标准正确答案。所以“道德机器”平台才会让全世界的人去给出自己的选择。
智能自动驾驶的路还很长,戴姆勒的技术人员认为,未来10年内,都不会实现科幻片里满大街完全自动驾驶的愿景。
你以为困住它的是技术问题,没想到它最大的挑战很可能是社会伦理问题。
对于自动驾驶面临的道德困境,这是一个见仁见智非常有争议的问题。
瓜友们你们怎么看?来留言区聊两句,想听听你们的想法。