《表1 人工智能伦理的主要原则》

《表1 人工智能伦理的主要原则》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《教育人工智能伦理的困境及治理路径》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

综上,我国和欧美国家均对人工智能伦理原则做了规范性的研究。尽管从实践层面来说,社会公众对这些伦理问题是什么、有多少问题、它们是为了什么、它们对谁施加了什么责任等问题上存在分歧,在有关原则的要素方面存在交叉性。部分学者尝试将人工智能相关的伦理原则予以梳理与归纳,尝试提取人工智能伦理的主要原则。乔宾等人[8]对84份人工智能道德文件的审查表明,尽管所有文件中没有一项原则,但透明度、公正与公平、非损害性、责任和隐私的主题出现了一半以上。弗洛里迪和考尔[9]将人工智能伦理原则的相关主题结合在一起,可将符合道德的人工智能原则定义为:一,有益于并尊重人和环境(慈善);二,稳健和安全(无恶意);三,尊重人的价值观(自治);四,公平(正义);五,可解释、可问责和可理解(可解释性)。归纳来说,我们可将仁慈、安全、自治、正义、透明作为人工智能伦理的主要原则(如表1所示)。