《表1 实验中比较方法的参数》

《表1 实验中比较方法的参数》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《结合Skip-gram和加权损失函数的神经网络推荐模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文所述方法的参数如表1所示。对于所有方法,其参数都是通过反复试验来调整的。对于Item-CF,APP数据集中参数sji设置为100,Last.fm数据集设置为1 000;对于RBM方法,APP数据集参数|L|设置为150,Last.fm数据集设置为2 000;对于NADE方法,本文设置了与RBM方法相同的参数;对于MF by NM,APP数据集中参数c设置为50,Last.fm数据集中设置为1 500;对于DSM模型,本文将L2设为4e,L3设为3e,L4设为2e是实验中需要调优的参数),因为在推荐Youtube视频也是这样设置的[13],在所有被研究的具有不同数量的隐藏层和单元的体系结构中,该设置的性能最好;本文对DBN训练中不同的RBM层数进行了评估,发现当RBM层数设为5层时,对于每层隐藏单元数,APP数据集设为150,Last.fm数据集设为2 000,所采用的DBN结构在推荐下达到了最佳性能。Srivastava等人[26]指出在深度神经网络中添加更多的层并不是最好的,添加层数过多会导致严重的过拟合,即在DSM模型和DBN中添加更多的层和神经元单元并不能提高推荐性能。