《表8 样本量10 000时的Attention-BiLSTM模型实验结果》

《表8 样本量10 000时的Attention-BiLSTM模型实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《不同深度学习模型的科技论文摘要语步识别效果对比研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

使用Attention-BiLSTM模型进行实验。经过参数的调整,将参数设置如下:词向量维度:300;隐藏层神经元个数:800;激活函数:tanh();损失函数:交叉熵损失函数;批训练大小:64。首先依然使用10 000的样本量,在经过25次迭代之后,模型达到最佳实验效果,结果如表8所示。