《表2 MNIST数据集的相近批次数性能对比》

《表2 MNIST数据集的相近批次数性能对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《最大相关熵准则下多层极端学习机的批量编码》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

通过2.2中理论分析可知,将训练数据划分的批次数直接影响着BC-HELM的最大内存占用以及运行时间.在本实验中,BC-HELM与本文主要对比的网络结构HELM相比[22],由于将训练数据进行了分批次学习,从而降低了对自动编码器(ELM-AE)隐含层神经元个数的需求,因此本文ELM-AE隐含层神经元个数的取值在HELM取值的基础上有所降低,即在MNIST、NORB两数据集上分别暂时设定为300、2000.在现有的关于多层极端学习机网络结构的研究中[1,2,12,18,22],当正则化系数为215时,不同网络结构的多层极端学习机的学习精度曲线均可达到或接近最终的稳定数值,因此文中暂时将正则化系数暂时设置为215.依据同为对决策层中隐含层进行堆栈而成的网络结构S-ELM[12,18],将BC-HELM的决策层隐含层神经元个数在M NIST数据集上暂时设定为5000,在NORB数据集上暂时设定为设定为650.本文默认使用最原始的高斯核函数因此将尺度因子设置为1.接着将两个数据集的训练样本的批次数依次设置为1-10分别进行50次仿真实验,取平均值作为最终结果,以图3以及表2的形式表示出来,每一点的横坐标为对应的运行时间,纵坐标为占用的最大内存,最接近原点的点对应的批次数视为最佳批次数.