《表3 BLUE-2评估得分对比》
本文比较了另外三种古诗生成方法:SMT[7]、RNNPG[25]、PG-Wei[15]。对于BLEU自动评估,本文预先给定关键词和第一行诗句,然后分别计算模型生成的后三句的BLEU-2得分。对于人工评价,邀请了10位具有多年教学经验的语文老师对生成的古诗进行整体打分,并对各个评价指标计算平均得分作为最后的评估结果。表3和4分别展示了BLUE值和人工评估的结果。其中,两种评价方式的得分区间分别为0~1和0~5,且分值越高,生成的古诗质量越好。
图表编号 | XD00198120000 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.05 |
作者 | 黄文明、任冲、邓珍荣 |
绘制单位 | 桂林电子科技大学计算机与信息安全学院、桂林电子科技大学广西高校云计算与复杂系统重点实验室、桂林电子科技大学计算机与信息安全学院、桂林电子科技大学计算机与信息安全学院、桂林电子科技大学广西高校云计算与复杂系统重点实验室 |
更多格式 | 高清、无水印(增值服务) |