《表1 Inception模块各卷积操作的滤波器个数》

《表1 Inception模块各卷积操作的滤波器个数》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于GoogLeNet的手写体汉字识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

图2展示了HCCR-IncBN模型的结构以及每层输出特征映射的维度。该模型一共有15层(只计算卷积层和全连接层),包括3个卷积层、5个Inception模块和2个全连接层。原始输入为64x64大小的灰度图像。模型开始是两组“卷积+最大池化”操作,卷积核大小为3x3,步长为1,最大池化操作的池化窗口为2x2,步长为2,整个模型中的四次卷积操作都采用此参数配置。第二个池化操作后是5个Inception模块,其中在Inception2和Inception4后设置了最大池化层,在最后一个Inception模块后设置了1x1的卷积操作,该操作将4x4x608的特征映射压缩为4x4x256。1x1卷积操作完成后需要将特征映射扁平化为4096维的向量,之后开始全连接层的操作,第一个全连接层包含1024个神经元,输出层神经元的具体个数根据不同的数据集来设置(HWDB数据集设置为3755)。在HCCR-Inc BN模型中,所有卷积层(包括Inception模块中的卷积层)和全连接层后面都连接了一个BN层,即在Re Lu激活函数之前先执行BN算法。HCCR-Inc BN模型涉及的计算参数数量为6849035,按照存储一个浮点数需要4个字节计算,存储模型所需的存储空间约为26.12MB。表1列出了5个Inception模块中各卷积操作滤波器个数的具体设置。