《表4 Att-DCC模型与已有研究模型的比较》

《表4 Att-DCC模型与已有研究模型的比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向新概念学习的图像描述生成模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:黑体数据为最优值。

将本文提出的AttDCC模型与目前比较先进的几种新概念引入模型进行了对比,对比模型包括以下3种。(1)LRCN模型[19]:目前的传统图像描述模型中经典且效果较好的方法,但该模型无法引入新概念。因此,本实验中对LRCN训练时使用的训练集将新概念对应的数据包含在内,使得训练集和测试集具有相同的分布。该操作也导致了LRCN的性能在大部分情况下是较好甚至最好的。(2)DCC模型[12]:本文模型所依据的原始模型,分别采用delta迁移和直接迁移进行新概念学习。(3)NOC模型[14]:采用的无迁移学习的方法进行训练,构造多个损失函数来联合最小化图像文本数据集、单独图像数据集、单独文本数据集上的损失。从对比实验可以看出,Att-DCC模型效果大多数情况下优于其他几种模型。由于LRCN模型的训练集中包含了新概念对应的数据,因此该模型对测试集中的新概念的预测最好,其F1值达到了最高;而Att-DCC模型在F1值上表现略低于NOC模型,其主要原因是Att-DCC模型注重图像和文本模态的充分结合以生成准确的新概念和流畅的描述;NOC模型则侧重于改进模型的训练方法以提高生成新概念的准确率。采用另外两种评价语句流利性的指标SBLEU-1和SMETEOR,对本文Att-DCC模型和其他两种针对新概念的模型DCC和NOC进行对比,结果表明Att-DCC得到了更好的学习结果,证明本文提出的模型对于改进新概念描述和图像描述生成具有积极的作用。