《表6 NMT模型在文本化简上的实验结果》
具体实验在中文Wiki Edit数据集上进行,结果如表6所示。得益于递归神经网络对序列长期依赖的捕获能力,seq2seq-RNN模型更好地捕捉了化简中的句法变换,在两个文本化简指标上均优于其他两个模型,化简效果最好。同时,该模型参数规模较小,训练时间也较短。这表明Seq2seq-RNN是一个良好的文本化简模型。
图表编号 | XD00222628300 严禁用于非法目的 |
---|---|
绘制时间 | 2020.11.01 |
作者 | 吴呈、王朝坤、王沐贤 |
绘制单位 | 清华大学软件学院、清华大学软件学院、哈尔滨工业大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |