《表3 不同模型下的测试精度》

《表3 不同模型下的测试精度》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《SentiBERT:结合情感信息的预训练语言模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
%

从图4可以看出,相较原BERT模型,本文方法在不同数量的训练数据集下均能取得较好的效果,特别在样本数量较少的情况下,BERT的3种训练方式差异较大,随着训练数据增多,本文的模型精度收敛更加迅速。最终,在全数据集下,3个模型的差距较小样本下已经不够明显,猜测足够的人工标注样本使得BERT推断出了一定的情感,补偿了加入的单词情感信息。