《表1 矿井救援思想实验中的伦理困境》

《表1 矿井救援思想实验中的伦理困境》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《“湖心岛”隐喻:人工智能时代的算法伦理入侵》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

AI提供了一个救人期望值最大的方案,同时关闭闸门1和2,然后让矿工依靠吃掉同伴尸体来维生。首先,在“证据相对”的意义上,AI给出的救援方案并不具备可责备性,毕竟这样做虽然没有机会在“拯救全部矿工”的意义上做正当的事,但显然这是期望最大的应做之事,而且这个方案所能拯救的生命期望值(0.8)远超排名第二的方案(0.5)。然而,救援行动的目标不只在于拯救的生命数目,还在于这次行动向整个社会所传递出的价值观念,因此关于矿工们该如何选择牺牲者、那些依靠同类相食的方式存活下来的生命在何种意义上还能被称之为“人”,以及究竟是“拯救10个人”还是“拯救80个冷血动物”之间如何选择,这些都是与拯救更多生命同等重要的问题。基于此,AI的救援方案在“事实相对”的意义上无疑是道德可责备的。最后,在“信念相对”的意义上,在救援方案中预置了“同类相食”的必需环节,而不是当矿工们在走投无路的绝境中迫不得已而想出的求生之道。在伦理上,这无疑比“洞穴奇案”中四名被困的探险者们杀死罗杰·威特莫尔并吃掉其尸身以求生的行为更加不当[14]。它向所有人清晰地传递了一种机械的、功利主义的计算伦理,为了多数人可以牺牲少数人,为了实现救援行动最终结果的期望值最大化,人跟其他可调用的资源一样是工具,最终拯救生命的数字才是目的。诚如伊格尔顿所言:“在某些情形下,人不可能全身而退。只要情况足够极端,每一种道德原则都将在接缝处解体。”[15]对于人类而言,也许极端的情境会使所有的伦理规则都面临崩解,但算法伦理则无此虞,算法稳定地追求着“最大期望”。在向社会传递道德价值的意义上,人类普遍能够接受“并不是只有结果才是值得追求的”这一观点,因为有些行动本身即便未能达成好的结果,也依然具有教化社会的道德价值,但算法关注的是结果而非过程,这也是学者们担忧AI技术将带来伦理危机的三大原因(主体性、自我同一性、功利主义)之一。