《表4 Word2Vec和Bert计算语义相似度》

《表4 Word2Vec和Bert计算语义相似度》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于专利知识图谱的专利术语相似度计算研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

使用谷歌预训练好的Bert中文模型,然后将新能源汽车领域的专利语料加载到模型中,得到Bert模型编码后的词向量。利用编码后的词向量进行余弦相似度计算,两种编码方式得到的结果如表4所示。可以看出,Word2Vec计算的术语语义相似度普遍较低,这是由于Word2Vec依赖于上下文的信息进行词向量编码,而Bert编码是将词拆分为字进行编码,然后拼接后计算相似度,得到的相似度较高。