《表1 不同计算映射的数据复用情况》

《表1 不同计算映射的数据复用情况》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《一种高性能可重构深度卷积神经网络加速器》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注释:To表示在一个PE内对同一块输入数据计算的输出通道数;Ti表示在一个PE内一次性累加的输入通道数;Pi表示在计算阵列上并行的输入通道数;Po表示在计算阵列上并行的输出通道数。

由表1可知,数据传输减少百分比由计算阵列上能够并行的输入通道数(Pi)、输出通道数(Po)、一个处理单元一次性累加的输入通道数(Ti)及局部存储区能够容纳的卷积核个数(即输出通道数To)决定,因此3种卷积映射方法可直接带来数据传输量的大量减少。表1中对于3×3卷积的Fia为无池化层的情况,由于图像切割处的数据需要重复传输,因而实际Fia略大于表1中的理论值;当有池化层时,由于类脑神经元对中的两个类脑神经元之间数据无法复用,只在总线传输过程中重叠的行数据可以共享,Fia大于表1中的理论计算值。