《表2 文字检测方法在ICDAR 2015上的性能对比》

《表2 文字检测方法在ICDAR 2015上的性能对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向自然场景图像的三阶段文字识别框架》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为验证本文方法对文字检测的有效性,选取几个较新的典型方法,在ICDAR 2013和ICDAR 2015数据集上进行定量比较,实验结果如表1和表2所示。由表1和表2知,本文方法在R,P和F分数指标上都表现较好。锚点框回归方法(如RRPN[4]、Text Boxes++[5])依赖大量人工设计匹配文字特征区域的锚点,还需考虑随机排列文字的方向特性;而本文通过FPN直接分割文字像素,通过BLSTMN捕获字符间的上下文信息,显著改进了对随机排版文字的识别。相较一般的实例分割方法(如Seg Link[7]、Pixel Link[6]),本文方法通过FPN将局部与全局的文字特征相融合,实现对不同大小文字的分割,从而获得更高的文字字符召回率和检测精度。值得一提的是,CRAFT方法[8]凭借弱监督学习和像素级字符连接获得了最佳的检测性能。