《表4 不同注意力机制下的自动评分结果》
本文在语文数据集上探讨了不同注意力机制对系统性能的影响,具体结果如表4所示。其中,NoAttention表示Att-Grader模型没有使用attention层;SelfAttention表示模型仅使用自注意力机制;CoAttention表示模型仅使用双向互注意力机制;SelfCoAttention表示模型中既有自注意力机制又有双向互注意力机制,即学生答案与参考答案分别先通过自注意力机制获取内部关键特征后,再通过互注意力获得两者的匹配信息。
图表编号 | XD00109152700 严禁用于非法目的 |
---|---|
绘制时间 | 2019.11.01 |
作者 | 谭红叶、午泽鹏、卢宇、段庆龙、李茹、张虎 |
绘制单位 | 山西大学计算机与信息技术学院、山西大学计算机与信息技术学院、北京师范大学未来教育高精尖创新中心、北京师范大学教育技术学院、北京师范大学未来教育高精尖创新中心、山西大学计算机与信息技术学院、山西大学计算机与信息技术学院 |
更多格式 | 高清、无水印(增值服务) |