《表4 GPU内存与时间开销》

《表4 GPU内存与时间开销》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向问句复述识别的多卷积自交互匹配方法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本节选择复现Siamese-CNN、Siamese-LSTM、BiMPM、DECATTchar,通过与MCSM在GPU显存使用大小与训练迭代速度上进行对比。以上模型均在英伟达GeForce GTX 1080的实际环境中运行得出的结果,其中,Siamese-CNN、Siamese-LSTM采用MatchZoo以Keras进行复现,MCSM是以Keras实现,BiMPM通过Tensoflow进行复现,DECATTchar采用Pytorch进行复现(1),虽然模型复现框架有所不同,但是对模型使用GPU内存与迭代一轮训练速度影响不大。最终,模型训练过程需要占用的GPU显存大小和迭代一轮训练语料所需时间如表4所示。