《表1 卷积神经网络配置:Attention机制在脱机中文手写体文本行识别中的应用》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《Attention机制在脱机中文手写体文本行识别中的应用》
本文采用去除全连接层的卷积神经网络,并且在一些卷积层后面增加批标准化(Batch Normalization,BN)[19].如表1所示,maps表示特征图的数量,Window表示池化层窗口大小,k、s、p分别代表卷积核,步长和填充.由表1可知,卷积层的卷积核的大小都是3,卷积核移动的步长均为1,填充也为1,激活函数使用的均为Re LU,池化层全部为M axPooling.
图表编号 | XD0096850700 严禁用于非法目的 |
---|---|
绘制时间 | 2019.09.01 |
作者 | 王馨悦、董兰芳 |
绘制单位 | 中国科学技术大学计算机科学与技术学院、中国科学技术大学计算机科学与技术学院 |
更多格式 | 高清、无水印(增值服务) |