《表2 生成(判别)模型中不同LSTM与GRU组合对模型性能的影响》
本文方法与传统方法的区别在于注意力机制的部分。在该问题中,传统方法可以将LSTM等基于循环神经网络模型的每一步输出取出来作为计算注意力权重的参数使用;而在本文方法中,使用了不同模型相互之间提供注意力权重的方式提供特征提取任务。表2展示了本文方法中4种不同注意力机制组合与不适用注意力机制的模型性能对比情况。从总体上来看,在只使用LSTM对日志序列进行拟合的情况下,模型的总体性能要比使用了注意力机制的模型相对弱一些,这就说明加入注意力机制可以有效地提升对异常事件的检测效果。重要的是,很直观地可以看到将LSTM作为隐层特征而GRU的输出作为注意力权重参数时,模型的性能最优。此外将GRU作为隐层特征而LSTM作为注意力权重时,虽然准确率并不是最好的,但是相对的召回率有接近于1的效果。这对于已出现的异常事件预测错误的低容忍相较于前一种有更好的效果。此外,使用GRU和LSTM为各自的输出提供注意力权重参数的结果,相较于混合式而言,表现并不是非常理想。但是从整体的结果上可以看出,LSTM提取特征的能力要比GRU更胜一筹。而由于GRU与LSTM的结构不同,所以在作为注意力权重参数时可以进一步提升LSTM的特征提取能力。
图表编号 | XD00222689100 严禁用于非法目的 |
---|---|
绘制时间 | 2020.10.10 |
作者 | 夏彬、白宇轩、殷俊杰 |
绘制单位 | 南京邮电大学计算机学院软件学院网络空间安全学院、江苏省大数据安全与智能处理重点实验室(南京邮电大学)、南京邮电大学计算机学院软件学院网络空间安全学院、中兴通讯股份有限公司 |
更多格式 | 高清、无水印(增值服务) |