《表7 不同seq2seq-RNN模型的实验结果》
不同模型在中文Wiki Edit数据集上进行50次迭代训练,其中词向量维度和LSTM的隐藏层大小均设为128。如表7所示,实验结果表明第4章中所提使用常用词汇表、引入词性标注、设计化简评分函数的文本化简改进思路能够提升模型的化简效果,且包含所有改进的seq2seq-RNN-PES效果最好。此外,虽然改进使得参数规模变大,但所有模型的训练时间均为8~10 s,这表明上述改进没有引入过多的时间开销。
图表编号 | XD00222628400 严禁用于非法目的 |
---|---|
绘制时间 | 2020.11.01 |
作者 | 吴呈、王朝坤、王沐贤 |
绘制单位 | 清华大学软件学院、清华大学软件学院、哈尔滨工业大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |