《表4 LT-DSL的片上存储开销分析MB》

《表4 LT-DSL的片上存储开销分析MB》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于双向跳表的命名数据网内容存储池》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

由表4可知:在网络误判概率低于1%的情况下,LT-DSL方案片上存储消耗最少,原因在于LT-DSL通过学习索引数据的分布情况实现了更均匀的映射,提高了存储效率.实验测得当误判概率低于1%时,针对名称数量为1×106的名称数据,LT-DSL方案片上所需槽数分别为1×104,片上存储开销为3.14 MB.LT-DSL方案中神经网络模型的每个BPNN中包含5个输入神经元、1个输出神经元和20个隐藏神经元,且模型中共有1 001个BPNN.由此得出神经网络模型的存储开销为(20×5+20×1+1×20+1×1)×8 B×1 001?1.13 MB.而每个静态存储槽中缓存有20个前向结点地址,20个后向结点地址,20个前向结点键值,20个后向结点键值和1个当前结点键值,得出静态存储所占用的存储开销为(20×4 B+20×4 B+20×1 B+20×1B+1×1 B)×10 000=2.01 MB.所以对于名称数量为1×106的名称数据,LT-DSL方案的片上存储开销为1.13 MB+2.01 B=3.14 MB.