《表2 指标说明:基于深度学习的生成式自动摘要技术》
由于decoder在执行每一步时无法提前使用后面步的输入,因此Decoder采用双层单向LSTM结构。Attention机制应用在encoder的hidden states上得到context,context一方面作为输入与目标字串联作为Decoder端LSTM的输入,循环得到hidden states;另一方面可以和Decoder的hidden states连接进行softmax计算输出概率。
图表编号 | XD00209157700 严禁用于非法目的 |
---|---|
绘制时间 | 2020.12.25 |
作者 | 陈天池、洪沛、杨国锋 |
绘制单位 | 中国电信安徽分公司、中国电信安徽分公司、中国电信安徽分公司 |
更多格式 | 高清、无水印(增值服务) |