《表4 GPU内存与时间开销》
本节选择复现Siamese-CNN、Siamese-LSTM、BiMPM、DECATTchar,通过与MCSM在GPU显存使用大小与训练迭代速度上进行对比。以上模型均在英伟达GeForce GTX 1080的实际环境中运行得出的结果,其中,Siamese-CNN、Siamese-LSTM采用MatchZoo以Keras进行复现,MCSM是以Keras实现,BiMPM通过Tensoflow进行复现,DECATTchar采用Pytorch进行复现(1),虽然模型复现框架有所不同,但是对模型使用GPU内存与迭代一轮训练速度影响不大。最终,模型训练过程需要占用的GPU显存大小和迭代一轮训练语料所需时间如表4所示。
图表编号 | XD0091826700 严禁用于非法目的 |
---|---|
绘制时间 | 2019.10.01 |
作者 | 陈鑫、李伟康、洪宇、周夏冰、张民 |
绘制单位 | 苏州大学计算机科学与技术学院、苏州大学计算机科学与技术学院、苏州大学计算机科学与技术学院、苏州大学计算机科学与技术学院、苏州大学计算机科学与技术学院 |
更多格式 | 高清、无水印(增值服务) |