《表1 多轮对话数据:基于词语相关性的对话系统话题分割》

《表1 多轮对话数据:基于词语相关性的对话系统话题分割》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于词语相关性的对话系统话题分割》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

实验中使用的词向量空间,是用多个领域的800万篇文章训练得到的,是中文的平衡语料库,其中还包含了常见英文词汇。使用Google的word2vec进行训练,向量维度为256维,训练时设置窗口大小为10,最小词频限制为64[23]。训练数据和测试数据则使用文献[22]中提供的公开多轮对话语料,原数据中含有从微博及豆瓣讨论组爬取的多轮对话数据、数据的数据量、对话轮数等具体信息,如表1所示。