《表8 端到端的文本识别方法在ICDAR2013上的F-measure对比》

《表8 端到端的文本识别方法在ICDAR2013上的F-measure对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度学习的自然场景文本检测与识别综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

端到端的文本识别方法在数据集ICDAR2013上的性能见表8,通用词典、弱语境词典和强语境词典约束条件的文本识别F-measure逐渐提高.由于word spotting评估方式将图像中包含非法字符的文本视为无关文本,使得word spotting评估方式的F-measure高于end-to-end.Deep TextSpotter[82]采用RPN和卷积特征时序分类识别图像文本内容在end-to-end和word spotting评估方式的强语境约束条件下的F-measure分别达到了0.89和0.92.TE-CRNN[83]采用Faster-RCNN以及基于LSTM的编码器和解码器识别文本内容,该方法在数据集ICDAR2013上的不同评估方法和约束条件的识别F-measure均高于Deep TextSpotter[82].TextSpotter[81]使用ESAT[16]模块检测文本框并在解码器增加了注意力对齐和增强,其F-measure在数据集ICDAR2013上与TE-CRNN[83]相近.Mask TextSpotter[85]方法在数据集ICDAR2013上end-to-end评估方式的F-measure达到了0.922,0.911和0.865,该方法基于字符实例概率图的识别方式在数据集ICDAR2013上仅word spotting评估方式的强语境约束的F-measure低于其他方法.FOTS[84]基于ESAT[16]和时序特征分类的识别模型在ICDAR2013上的F-measure与TE-CRNN[83]相当,其中word spotting评估方式的强语境和弱语境约束的F-measure高于其他方法.