《表1 网络框架:基于改进YOLOv2模型的多目标识别方法》

《表1 网络框架:基于改进YOLOv2模型的多目标识别方法》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于改进YOLOv2模型的多目标识别方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

YOLOv2利用了anchor boxes来预测bounding boxes,去掉最后的全连接层部分,网络结构采用卷积层和池化层,图片尺寸由原来的448pixel×448pixel调整为416pixel×416pixel,利用YOLOv2对图像进行了32倍的降采样,最终输出的特征图尺寸是13pixel×13pixel,这样可以产生一个中心栅格,用这个中心栅格去预测落在图像中心的物体。为了得到多目标检测识别效果更好的网络,本文在YOLOv2-voc网络结构的基础上,调整网络中的参数(表1)并进行多次实验,得到了不同的检测结果,如图2所示。