《表4 LT-DSL的片上存储开销分析MB》
由表4可知:在网络误判概率低于1%的情况下,LT-DSL方案片上存储消耗最少,原因在于LT-DSL通过学习索引数据的分布情况实现了更均匀的映射,提高了存储效率.实验测得当误判概率低于1%时,针对名称数量为1×106的名称数据,LT-DSL方案片上所需槽数分别为1×104,片上存储开销为3.14 MB.LT-DSL方案中神经网络模型的每个BPNN中包含5个输入神经元、1个输出神经元和20个隐藏神经元,且模型中共有1 001个BPNN.由此得出神经网络模型的存储开销为(20×5+20×1+1×20+1×1)×8 B×1 001?1.13 MB.而每个静态存储槽中缓存有20个前向结点地址,20个后向结点地址,20个前向结点键值,20个后向结点键值和1个当前结点键值,得出静态存储所占用的存储开销为(20×4 B+20×4 B+20×1 B+20×1B+1×1 B)×10 000=2.01 MB.所以对于名称数量为1×106的名称数据,LT-DSL方案的片上存储开销为1.13 MB+2.01 B=3.14 MB.
图表编号 | XD00149242900 严禁用于非法目的 |
---|---|
绘制时间 | 2020.09.23 |
作者 | 刘开华、周美丽、李卓 |
绘制单位 | 天津大学微电子学院、天津大学微电子学院、天津大学微电子学院 |
更多格式 | 高清、无水印(增值服务) |