热议机器人伦理 智能汽车能否解开“电车悖论”?

“电车悖论”是伦理学领域最为知名的思想实验之一,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。迫使一辆失控的电车朝他们驶来,并且片刻后就会将他们碾压。幸运的是,你可以拉动一个变轨拉杆,让电车开到另一条轨道——但是那个疯子在那另一条轨道上也绑了一个人。

热议机器人伦理 智能汽车能否解开“电车悖论”?

      机器人汽车的伦理问题最近成为一个热议话题。特别是,假使它被迫无论如何都要去撞一个人,它究竟该做什么?它会怎么做出这个选择?这是一个在哲学课程的导言部分就会学到的电车悖论的现代版。

  想象一辆机器人汽车正在沿马路行驶,两个人跑到了马路上,汽车不可避免地就要撞到其中一个。假设他们中的任何一个都无法逃开,汽车之前也没有察觉到他们。汽车应该撞哪一个?很多思考者对怎样做出这个道德上的选择提出了建议。

  机器人汽车可以运行代码做一个随机选择。

  机器人汽车可以把控制权移交给人类乘客。

  机器人汽车可以根据汽车的设计者或者拥有者事先设定的价值观来做出选择。

  最后一项更值得我们思考。这些价值观会是什么样的?

  举个例子。他们可能告诉汽车更倾向于去撞一个成年人而不是小孩,更倾向于去撞一个强壮的人而不是一个更弱小的。汽车甚至会尝试用面孔识别来计算一个生命的价值优于另一个,它会去撞刚刚谋杀过他人的罪犯而不是一个正在从事癌症治疗的科学家。

  在这些例子里,计算机随机做决定,或外包给他人,又或用事先设定的价值观来做决定。

  人类也在做同样的事,当面临选择时,我们抛硬币,请别人来帮我们做决定,或者依靠各种道德权威里的正确答案。然而作为人类,当我们面临艰难抉择时也会做点别的:尤其在模棱两可的情况下,没有哪个选择是明显更好的,我们总有理由为我们选择的决定辩护。大多数时候我们没有意识到,但它总会在我们不得不做出特别艰难的决定时出现。

  事实上,世界充满着类似的艰难抉择——机器人汽车或机器人(或一般机器人)将如何恰当地处理类似的选择对开发和应用他们是至关重要的。

  要弄明白机器会怎样做出这些艰难抉择,先观察人类抉择的是个好办法。在Ruth Chang博士的TED演讲「怎样做出艰难抉择」里,她主张艰难的选择是由它们的相关备选方案来定义的。

  举个例子,在容易做出的决定里,一个可选方案是明显优于另一个的。相比较人造颜料,我们更愿意选择自然颜料,装饰房间时很容易就决定用浅米色而不是荧光桃红。然而,在艰难的决定里,一个可选方案是某些方面优于另一个但是在其他的方面却又不如它。没有任何一个解决方案在总体上是更完美的。

  关键是,人类总能找到理由来为我们做出的选择辩护。当整个社会都这这么做的时候,我们创造了法律、社会规范和道德系统。

  但是机器没法这么做...对吧?你会被惊到。比如Google最近宣布,他们最近开发了一个人工智能技术,可以学习和掌握视频游戏。程序没有给定的命令,而是连续不断地玩游戏,在经验中学习。有人预测,这项开发会对机器人汽车有用。

  它的原理可能是怎样呢?

  机器人汽车不是做随机的决定,外包出决定,或根据事先设定的价值观来做决定。而是它会运行云处理,四处搜索大量的基于当地法律、过去的法律裁决和他周围社会和人类的价值观的数据和模式,以及随着时间推移观察其他各种类似的决策过程和结果。

  简而言之,机器人会像人类一样,运用经验来创造属于他们自己的理由。