《表2 相关性得分对比结果》

《表2 相关性得分对比结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度学习的问答平台查询推荐研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

相关性实验结果如表2所示。首先,对比所有方法,CNMNN在所有指标上均获得了最优结果;而DRMM则在除n DCG@5外的所有指标上获得了最差的得分;且CNMNN相对于DRMM,在n DCG@5、n DCG@10、n DCG@20、MRR和MAP等指标上的提升率分别为83.8%、67.1%、50.8%、87.9%和90.0%。其次,两种传统的问句搜索方法MQ2QC和IBLM的效果基本相同,两者都利用了多种特征的线性组合,这些特征主要考虑了查询与自然语言问句的词汇相关性,没有考虑到查询和自然语言问句包含的提问意图相关性。再次,对比两种已有的神经排序模型,结果发现Match Pyramid各个指标的得分均高于DRMM,这很可能是因为Match Pyramid通过卷积神经网络能够提取短语级别的语义相似性,而DRMM则仅能从单词级别上考察语义相似性。然而,本文场景下判断关键词查询和自然语言问句的提问意图相关性时,需要更突出短语级别的语义相似性。例如,“Barack Obama”“president obama”和“Michelle Obama”,在单词级别上考查语义相似性,由于“Barack”和“Michelle”均表示名字,在词向量空间中具有更相近的位置,因此这两个短语在基于单词级别的相似度计算时会得到更高的得分;而从短语级别上看,“Barack Obama”和“president obama”应该具有更高的相似性,因为这两者表示的是同一个概念。