无人驾驶汽车的道德困境
“电车难题”是伦理学领域中一个著名的思想实验。在“电车难题”的场景中,五个无辜的人被绑在铁轨上,你正驾驶着一辆电车呼啸而来。如果你不拐弯,那么这五个人死定了,如果你拉下列车控制杆,使列车朝另一个方向驶去,问题又来了,在另一个方向的轨道上有一个同样无辜的人。自从1967年英国哲学家菲利帕·福特首次提出“电车难题”以来,哲学家们一直没有讨论出统一的答案。主流的观点渐渐变成两种,一种是道义论,另一种是结果论。按照道义论,所有生命皆平等,所以你不该转弯,但按照结果论,你应该转弯,毕竟只牺牲一个人才能获得最优的结果。这两种观点在某种程度上都是符合道德的,但行为却截然相反(详见《大科技·百科新说》2016年第2期《电车难题:转弯?不转弯?》一文)。
“电车难题”使哲学家们陷入了两难的境地,他们越是冥思苦想,就越来越陷入泥淖。然而现在,不仅哲学家要面对这个令人讨厌的难题,汽车产业的政策制定者和汽车生产商也开始受到它的折磨了。由于无人驾驶汽车已经上路,政策制定者和汽车生产商不得不考虑一下“电车难题”在现实中出现的可能性。
受到冲击的设计理念
从表面上来看,无人驾驶汽车似乎并不会带来新的不同。一辆汽车,不论它受汽车软件控制,还是由人类亲自驾驶,都要面临撞谁不撞谁的选择。然而实际上,只有在无人驾驶汽车中,“电车难题”作为一种思想实验才更具有现实意义。在现实中,人类司机在遭遇紧急情况时,比如,面前突然冲出来一个人或者一辆车的时候,在一瞬间通常是丧失理智的,全靠下意识的操作。他或者急踩刹车,或者急转弯,完全没有时间做“电车难题”中的伦理学思考。而且,正是由于下意识的操作,最终的结果是司机无法把握的——有可能是虚惊一场,没人员伤亡;也有可能比不操作更严重,比如急转弯翻车或者导致连环追尾使更多人伤亡。
因此,在现实的交通事故中,我们很少会从伦理学上对司机做道德谴责(个别情况除外),毕竟,人都会出现失误。但是,无人驾驶汽车就不同了。它所有的反应都是汽车程序事先设定好了的。它不需要在那一瞬间做决定,汽车生产商早已用计算机代码告诉它,在这种情况下该怎么做。所以,此时才真正出现了伦理问题,而且这种伦理问题将会冲击无人驾驶汽车的设计理念。
无人驾驶汽车为什么会出现?作为无人驾驶汽车技术的领军巨头,谷歌公司给出了权威的答案——无人驾驶汽车可以减少由于人类疏忽而造成的交通事故,进而降低事故中丧生或受伤的人数。也就是说,无人驾驶汽车是出于安全的角度被设计出来的。那么在出现“电车难题”时,无人驾驶汽车的首要任务是为了保护车主的安全,还是为了保护车外人的安全?
举一个例子,你乘坐无人驾驶汽车行驶在山路上,发现面前有几个小孩堵在路中间,向左拐弯的话,你会有冲下悬崖的可能性,向右拐弯则是逆行道,违反了交通规则,有可能与前方驶来的汽车迎头相撞。这时,如果无人驾驶汽车的设计理念是优先保证车内人的安全,那么汽车完全不会做任何操作,径直轧过去就行了,但后果会造成这几个小孩的身亡。另一方面,如果无人驾驶汽车的设计理念是保护车外人的安全,那么很明显,这样的车卖不出去——无论车主还是汽车生产商,都不希望自己成为车祸的受害者。
这里,又涉及到另一个问题:如果无人驾驶汽车遵守规则就必须造成伤害,是否应该允许无人驾驶汽车破坏交通规则呢(比如转入逆行道)?如果可以的话,这是与“遵守交通规则,降低事故风险”的常识相矛盾的。当然,也有人指出,也许可以在设计无人驾驶汽车软件的时候不设定什么“指导原则”,就让汽车模拟人类司机的下意识操作,让它在随机状态下运行。但这种“碰运气”的做法同样不符合人类发明无人驾驶汽车的初衷。
决策权和责任
对于前一个问题,也许通过技术的进步,汽车生产商们能够编写出无比复杂的程序,尽量让无人驾驶汽车在面对电车难题时做出合乎逻辑的选择。但是,想象一下,在未来的某一天里,乘坐在无人驾驶汽车中的你,生命处在出现“电车难题”的危急时刻,自己却无法做出决策,你会甘心么?
“电车难题”中的决策权至关重要,那么它应该属于谁?是汽车制造商、法律制定者,还是车主本人?谁来做决策,谁就有可能被推到道德的风口、伦理的浪尖上,而且,无人驾驶汽车在面临“电车难题”时决策权的归属会出现一些变数。比如,如果汽车生产商具有决策权,他们设计了一款无人驾驶汽车,让它在出现“电车难题”的情况下故意杀害车主,以降低事故中的人员伤亡。你如何保证司机不会自己修改程序,以确保自己永远不会被自己的汽车蓄意谋杀?计算机软件总有漏洞,总会有人能破解这些软件。
最后,如果无人驾驶汽车真的遭遇了“电车难题”,汽车软件在做出选择之后,谁需要站出来对后果负责呢?反正法律制定者不会让无人驾驶汽车本身来担责,“寻找明确的负责人”是我们需要思考的另外一个问题。
本文源自大科技*百科新说2016年第8期杂志文章、欢迎广大读者关注我们大科技的微信号:hdkj1997