《表1 人工智能伦理的主要原则》
综上,我国和欧美国家均对人工智能伦理原则做了规范性的研究。尽管从实践层面来说,社会公众对这些伦理问题是什么、有多少问题、它们是为了什么、它们对谁施加了什么责任等问题上存在分歧,在有关原则的要素方面存在交叉性。部分学者尝试将人工智能相关的伦理原则予以梳理与归纳,尝试提取人工智能伦理的主要原则。乔宾等人[8]对84份人工智能道德文件的审查表明,尽管所有文件中没有一项原则,但透明度、公正与公平、非损害性、责任和隐私的主题出现了一半以上。弗洛里迪和考尔[9]将人工智能伦理原则的相关主题结合在一起,可将符合道德的人工智能原则定义为:一,有益于并尊重人和环境(慈善);二,稳健和安全(无恶意);三,尊重人的价值观(自治);四,公平(正义);五,可解释、可问责和可理解(可解释性)。归纳来说,我们可将仁慈、安全、自治、正义、透明作为人工智能伦理的主要原则(如表1所示)。
图表编号 | XD00169593100 严禁用于非法目的 |
---|---|
绘制时间 | 2020.05.30 |
作者 | 赵磊磊、姜蓓佳、李凯 |
绘制单位 | 华东师范大学课程与教学研究所 |
更多格式 | 高清、无水印(增值服务) |