《表3 BERT-Seq2Seq-Attention模型摘要示例》

《表3 BERT-Seq2Seq-Attention模型摘要示例》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《一种基于BERT的自动文本摘要模型构建方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

BERT-Seq2Seq-Attention模型所生成的摘要效果如表3所示,对原文内容概括充分完整并且用到了原文中没有出现的单词进行概括,由此可见BERT在处理多义性时也有一定效果。