《表6 不同模型下句子压缩情况》

《表6 不同模型下句子压缩情况》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于预读及简单注意力机制的句子压缩方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

其中3LSTM模型表现较差,究其原因是该模型包含约100万个参数,使用当前训练数据集(36 000个句子对),不足以将参数调整至最优。而本文提出的模型参数较少,在强化文本语义建模基础上,能够高效捕捉数据分布规律,提取频繁出现特征,即关键语义、语法等信息,融合简单注意力机制,聚焦与当前词紧密相关的上下文影响信息,采用端到端的联合训练,自适应学习句子压缩决策因子,为输入文本中的每个单词分配一个有意义的权重,突出重要的动词和名词,而忽略常用的单词,如介词等,实现更精准压缩。