《表1 卷积神经网络配置:Attention机制在脱机中文手写体文本行识别中的应用》

《表1 卷积神经网络配置:Attention机制在脱机中文手写体文本行识别中的应用》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《Attention机制在脱机中文手写体文本行识别中的应用》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文采用去除全连接层的卷积神经网络,并且在一些卷积层后面增加批标准化(Batch Normalization,BN)[19].如表1所示,maps表示特征图的数量,Window表示池化层窗口大小,k、s、p分别代表卷积核,步长和填充.由表1可知,卷积层的卷积核的大小都是3,卷积核移动的步长均为1,填充也为1,激活函数使用的均为Re LU,池化层全部为M axPooling.