《表1 人-机互动中的问题》

《表1 人-机互动中的问题》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《当前国外机器人伦理研究综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

这一方法是由鲍尔斯(Powers,2006)提出的。鲍尔斯认为伦理系统,如康德(Kant)的绝对命令(1)很自然地导致一组规则。因此,这种方法假定一种理想的道德准则可以被翻译成一套核心规则。这有点儿类似于前面提到的道德逻辑。这种方法允许机器在逻辑上生成一些新的更接近于特殊或新情况的伦理准则。虽然这种方法很有趣,但是因为研究人员通常使用纯逻辑系统或案例推理的方法,所以还没有引起太多的关注。鲍尔斯(Powers)的道德系统以康德人工代理的发展本身与康德的道德是对立的为基础,这在哲学层面受到汤肯斯(Tonkens,2009)的批判。更详细地说,根据康德所提及的道德主体都是理性而自由的,而机器只能是理性的,为它们强加一种道德感的事实限制了他们的自由。同时,道德主体应该以他们本身为最终目的,而伦理机器人将用于实现其他目标。这两种事实让康德人工主体的创造与康德阐述的道德本身是不一致的。汤肯斯总结说,人们冒着风险创造机器,也许会逐渐理解他们的存在是不道德的(R.Tonkens,2009)。他们得出结论,机器人伦理是意图把道德规则嵌入到机器人控制器的有趣尝试。这些可能是受欢迎的伦理规则,比如阿西莫夫定律,或者这些伦理规则可能来源于古典伦理学的哲学方法,如康德的道德。逻辑推理是大多数方法的驱动框架。虽然机器人伦理仍处在初级阶段,但它是一种有价值的尝试。在提供拥有伦理行为的机器人的需求与在提供机器人更多的自主性以便在日常生活方面支持人类之间,机器人伦理使两者达成调解。当前国外机器人伦理研究指出,各种伦理问题都源于人-机互动(见表1)的不断进步。虽然人们可能对本研究长远影响持不同意见,但大家都一致认为,至少应该确保机器人的行为是道德的。为此,人们对将道德规则嵌入机器人的控制器做了尝试。其他学者要求起草法律,以便在造成伤害时,能够明确设计师、用户或机器的责任归属问题。