《表3 机器决策、人类行为与责任主体关系》

《表3 机器决策、人类行为与责任主体关系》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《智能教育时代下人工智能伦理的内涵与建构原则》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

“问责原则”主要是指明确责任主体,建立具体的法律明确说明为什么以及采取何种方式让智能系统的设计者和部署者承担应有的义务与责任。问责是面向各类行为主体建立的多层责任制度。然而,分清楚责任人是极具挑战性的,例如,在自动驾驶汽车独立作出智能决策导致伤害发生的情况下,谁应当为自动驾驶汽车发生的故障和事故负责的问题,是应该由司机、自动汽车生产者或是人工智能系统设计公司来承担法律责任?在这里还难以作出明确的判断。《为人工智能的未来做好准备》提出了一般性的应对方法,强调基于风险评估和成本收益原则决定是否对人工智能技术的研发与应用施以监管负担[24]。在UNESCO和COMEST联合发布的《Report of COMEST on Robotics Ethics》中尝试明确责任主体[15],见表3。在追责政策制定不完善、主体责任不明确、监督责任不到位、伤害人类行为多发频发等问题发生时起到一定的缓解作用,以问责倒逼责任落实,落实科学家、设计者、政策制定者、使用者的各级责任,争取做到“失责必问、问责必严”。