《表3 BLUE-2评估得分对比》

《表3 BLUE-2评估得分对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于多对抗训练的古诗生成方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文比较了另外三种古诗生成方法:SMT[7]、RNNPG[25]、PG-Wei[15]。对于BLEU自动评估,本文预先给定关键词和第一行诗句,然后分别计算模型生成的后三句的BLEU-2得分。对于人工评价,邀请了10位具有多年教学经验的语文老师对生成的古诗进行整体打分,并对各个评价指标计算平均得分作为最后的评估结果。表3和4分别展示了BLUE值和人工评估的结果。其中,两种评价方式的得分区间分别为0~1和0~5,且分值越高,生成的古诗质量越好。