-
首页
-
时政
-
中国新闻
无人驾驶汽车的伦理麻烦
想象一下,有一辆失控的电车正沿着一条轨道横冲而去,轨道的前方正站着五个人。此时的你可以拉动一个拉杆,将小车转向另一条轨道——这条轨道上只站了一个人。那么我们更道德的选择应该是什么呢?什么都不做让那五个人被撞死?还是拉动开关,从而主动导致另一个人的死亡?
“电车问题”在1967年被哲学家菲利帕·福特(Philippa Foot)首次提出。这是个绝大多数人一生都不会面对的抽象问题。然而现在,随着无人驾驶车辆渐渐进入人们的生活视野,政策制定者和汽车生产商正在落入与此类似的伦理困境。
举例来说,如果一辆无人驾驶汽车需要做这样的瞬间计算,它会导致一个人或者另一个人受害,那么该给它输入怎样的伦理代码呢?谁又该为必然会出现的的无人驾驶汽车事故负法律责任呢?是车主,制造商还是程序员?在怎样的情况下可以允许无人驾驶汽车违反法规?这可能会变成人类与智能机器的首次大规模社会互动,我们需要应用什么样的监管框架呢?
在名为《汽车安全简史:从“方向盘后面的疯子”到“道德机器”》的案例研究中,两位斯坦福商学院政治经济学教授肯·肖茨(Ken Shotts)、尼尔·马尔霍特拉(Neil Malhotra)以及另一位合作者希拉·梅尔文(Sheila Melvin)考量了这其中的哲学和心理学问题。下面是肖茨对其中一些问题的解读:
就无人驾驶汽车来说,有哪些伦理问题值得我们思考?
这其实是“电车问题”的很好案例。一种情境是,汽车可能需要牺牲驾驶员去救另一些人,或者牺牲一名行人而去拯救其他行人。此外还有一些更微妙的版本——比方说有两位骑摩托车的人,一位戴着头盔而另一位没有。如果我想尽可能减少死亡,那应该选择去撞戴了头盔的,但这感觉总还是不太对头。
要指挥无人驾驶汽车如何行动,以上这些都是你需要编入程序中的假设情境。你必须涵盖所有情况,而伦理选择就会被放在最突出的位置。
这是一个很有趣的哲学问题。我们最终可能会发现,自己更加注重事情的后果。如果牺牲一个人能使五个人获救,我们通常会抽象地认为应该这么做。但对于汽车制造商来说,谈论这样的情况是非常棘手的,基于责任赔偿的原因,他们在讨论到挽救生命或有人死亡时,需要使用非常精确的语言。
在事情发生前就做出伦理选择,这意味着什么?
作为人类,我们会根据心理状态做出本能的决定。有时我们做出错误的决定,从而在方向盘前进行了错误的操作。但我们也会做出一些充满勇气的决定——可能比我们给自己汽车设定的程序还要更无私。
我们在课堂讨论中提出过一个问题:作为司机,你是否该有权选择驾驶程序的自私程度,让汽车在危急时刻选择保护司机和乘客,而不是车外人的性命?拿我自己来举例的话,坦白地说,在我独自乘坐和我的7岁女儿同在车中这两种情况里,我的答案会大不相同。如果她也在车里,我就会把程序设定得非常非常自私。
谁需要在解析这些伦理问题时起到主导性作用?政策制定者?汽车业界?还是哲学家呢?
现实中,这很大程度上还是取决于汽车业选择如何去做。政策制定者在随后的某个时点将不得不介入;而到了另一个特定的时点,责任赔偿方面的问题会浮现出来。
还有一些疑问和违法有关。斯坦福大学汽车研究中心的朋友们指出,有些时候正常的驾驶员会做出各种违法的事情,来让我们更加安全。比如你正要并入高速公路,就要提升到跟高速路上车流一致的速度——其实这在普通路段上属于超速。而当有人闯入你的行车道时,你或许会短暂地避让到逆行车道上。
对于一辆自动驾驶的汽车来说,它的“驾驶人”应当因此受到惩处吗?汽车制造商该被惩处吗?你该如何处理这一切呢?这些问题都需要搞清楚。说实话,我现在并不知道这该如何解决,只知道它需要被解决。
在汽车安全的历史中,有没有经验教训可以指导我们?
有的时候,剥夺人们的选择权是有好处的。当年汽车没有强制配置安全带时,车辆也就不安装它;它不被强制使用,也就没有人使用了。但从成本效益分析来看,安全带在挽救生命方面有着极高的性价比,汽车的稳定性控制系统也是同样的情况。强制人们使用这些东西,让人们没有拒绝购买它们的选择,是有实质性益处的。
责任赔偿制度会促使厂商给汽车增加自动的安全保障功能。但这实际上也引发了一个有趣的问题:在责任赔偿制度里,对“不当作为”的惩罚会比“不作为”更重。如果你给车配置了安全气囊,它又伤了人,这是一个巨大的责任问题。如果你没给车安装安全气囊,然后有人死了,这种责任却不像前者那么大。
同样的道理,假设某公司为一辆无人驾驶车配置了自动的安全功能,它会拯救不少生命,但有时导致了一些死亡。我想这项安全功能将会在责任赔偿系统下遭受惨重打击。
无人驾驶汽车会走进怎样的“监管丛林”呢?
人们谈论无人驾驶车的时候,很多注意力都放在完全自行驾驶的谷歌汽车上。但它其实只是一个自动化一点点发展的过程。稳定控制系统和防抱死制动系统也都是自动驾驶类的功能,我们已经越来越多地开始使用了。谷歌的无人汽车在硅谷引起了许多关注,但其实是传统汽车厂商正在将其付诸实践。
你可以想象,围绕着这一切会涌现出不同的平台与标准。比如,自动化应该是一组循序渐进的过程,还是一步飞跃到谷歌式的无人驾驶车?建立不同的监管制度,会更有利于某一种发展道路。我觉得循序渐进会是一种好的政策,但我并不确定它是不是就是正确的选择。它对汽车制造商很有利,但从谷歌的角度来说就不太好了。
如果一家公司想要取得优势,就会尝试影响标准的发展方向,让它有利于自己的技术。除了要考虑伦理问题,要进入该领域的公司也需要这方面的战略思考。
你认为在未来还会有哪些其他的重要伦理问题?
到了未来某个时候,人会被剥夺驾驶的权利吗?这话现在听起来当然有些不着边际。能够自由地把车开上路,是一件非常“美国”的事。很多人把驾车放在自己身份认同的中心地位,夺走它的感觉会很奇怪。
但这确实也有先例的。我的研究合作者尼尔·马尔霍特拉指出,盖房子就是一个榜样。150年前,美国人都是在毫无政府监督的情况下建造房屋的。当时它是自然而然的道理——这是你的住处,你自己的空间嘛。但是如果你现在想建房,那么在美国的绝大多数地方,将会有一系列的规则限制你,比如应该怎样布线、应该布得多宽多厚等等,每一个小细节都被非常严格地监管着。你如果不遵守所有这些规定,就根本没法自己建房。
我们之所以把这些自由从个人手中拿走,是因为我们认为其结果是有益的。这也有可能发生在汽车上。