《表1 卷积神经网络架构:基于事件相关电位(ERPs)和机器学习的考试焦虑诊断》

《表1 卷积神经网络架构:基于事件相关电位(ERPs)和机器学习的考试焦虑诊断》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于事件相关电位(ERPs)和机器学习的考试焦虑诊断》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:通过三次卷积操作提取了数据的特征,将数据矩阵的大小进行压缩,但是数据的深度加深,每次池化操作之后都使用了relu函数对数据矩阵进行逐元素激活,最后加上一个全连接层将每一个样本进行分类。

本研究使用的卷积神经网络架构见图4。本文中使用的CNN的输入数据维度是64×2×5,其中64代表64个不同位置的电极点,2代表任务条件(即威胁词和中性词下不同的脑电信息),5代表5种ERP成分(即P1,P2,N2,P3和LPP成分)。将原始数据输入到卷积层Conv1做卷积计算,即用一个较小的卷积核(也叫卷积矩阵)在数据矩阵上根据给定的步长(这里步长为1)进行滑动,将对应位置的元素进行相乘求和。在如图中输入数据矩阵为64×2×5的情况下,用16个5×5的卷积核来进行卷积操作,每一个卷积核都进行卷积操作就得到16个64×2的矩阵(这里我们使用补全的卷积方式,于是数据矩阵的大小并不发生改变),这16个矩阵分别代表16种原数据的不同特征,在深度学习中我们称为通道数。可以看出卷积是一种局部操作,通过一定大小的卷积核作用于局部数据区域来提取局部信息,这里卷积核的大小是事先给定的,里面的参数由模型学习而来,这些特性使得CNN的参数可以共享,减少了参数个数,并且在数据发生平移变换的时候,模型仍能捕捉到相似的特征。为了满足不同任务的需要,近年来,许多不同的卷积核如空洞卷积也被提出(Yu&Koltun,2015)。