《表2 各个网络层输出维数》
根据上文对一维卷积神经网络结构的介绍,多层卷积池化可提升网络性能,但是由于样本长度限制,采用3层以上卷积池化层时,最后一层池化层的输出维数可能小于标签维数,会极大降低网络性能,故设计具有3个卷积池化层的一维卷积神经网络.全连接层采用ReLU激活函数,前两个实验输出层采用softmax激活函数,第3组实验因标签含有多个1,故输出层采用tanh函数.根据张伟[13]的研究,第1层卷积采用大卷积核能取得较好的训练效果,故第1层卷积核大小为64,其余各层卷积核池化核大小均为4.为控制变量,全连接层神经元个数与第3层池化输出维数一致,输出层神经元个数与标签维数一致.为使结果具有较大差异便于比较,卷积层未采用激活函数,网络各层均未采用dropout.为加快训练速度,采用Adam算法更新权值,设置学习率为0.001,同时采用小批量梯度下降法,批量大小为200.网络各层输出维数如表2所示.
图表编号 | XD0053968500 严禁用于非法目的 |
---|---|
绘制时间 | 2019.08.31 |
作者 | 赵璐、马野 |
绘制单位 | 海军大连舰艇学院导弹与舰炮系、海军大连舰艇学院导弹与舰炮系 |
更多格式 | 高清、无水印(增值服务) |