《表1 使用不同卷积神经网络ODL的输出结果》

《表1 使用不同卷积神经网络ODL的输出结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于双层模型的宫廷服饰龙纹自动分割算法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在NVIDIA GeForce GTX 1080上进行实验,使用平均精度均值(mean average precision,m AP)衡量目标检测精度,其中,动量为0.9,权重衰减为0.000 5。Faster R-CNN[16]使用ZF网络[29]和VGG-16网络[30]进行训练,学习率为0.001,交替训练的迭代次数为[40000,20000,40000,20000],近似联合训练的迭代次数为20 000;R-FCN[17]使用不同深度的ResNets[31]进行训练,学习率为0.00 1,交替训练的迭代次数为[1000,1000,1000,1000,1000],近似联合训练的迭代次数为2 000;YOLO[27]使用GoogLeNet[32]进行训练,前520次迭代学习率为0.001,520~16 000次为0.01,16 000~24 000次为0.001,24 000~32 000次为0.000 1;SSD300[28]使用VGG-16[30]进行训练,前10 000次迭代学习率设置为0.01,10 000~20 000次为0.001,20 000~40 000次为0.000 1。表1为实验结果,SSD模型平均精度可达90.6%,R-FCN模型(ResNet-101)使用近似联合训练方法所需训练时间比SSD300少66倍,且平均精度与其相近。图8为宫廷服饰数据测试集上使用R-FCN模型ODL输出的龙纹目标检测结果。