《表5 文本检测方法在ICDAR2013和ICDAR2015上的性能对比》

《表5 文本检测方法在ICDAR2013和ICDAR2015上的性能对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度学习的自然场景文本检测与识别综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

(1)文本检测方法在数据集ICDAR2013和ICDAR2015上的性能见表5,其中,基于区域建议的方法通常借鉴RCNN、Faster-RCNN、SSD、YOLO等经典目标检测模型,而这类目标检测模型具有优秀的泛化性能,因此,此类文本检测方法大多数具有较好的准确率和召回率,其F-measure均超过0.70.FCRN[29]基于YOLO的改进模型在ICDAR2013数据集上的F-measure达到了0.83.TextBoxes[30]在SSD的基础上改进了候选框和卷积核的比例,使得其在ICDAR2013数据集上的F-measure达到了0.85.DMPNet[31]基于SSD模型并使用四边形表示文本框,使得其能够在ICDAR2015数据集上取得0.706 4的F-measure.RRPN[32]、R2CNN[33]、SSTD[35]、RRD[13]和TextBoxes++[12]针对图像中文本倾斜的特点增加了倾斜文本框的检测方式,检测性能取得了不同程度的提升,其中,R2CNN[33]使用顺时针前两个坐标和高度作为文本框的表示方式,克服了角度定义的不确定性,ICDAR2013和ICDAR2015数据集上的召回率分别达到了0.935 5和0.856 2.SLPR[34]通过检测多条水平或者垂直等距线与文本边界的交点得到文本框,召回率达到0.836,优于大部分文本检测方法.CRPN[37]使用基于文本区域特征的角点检测提取候选文本框,检测准确率达到0.887,比其他直接预设大量文本框的方式在准确率上至少提高了0.1.