《表1 无线网络参数取值:基于深度强化学习的无线网络资源分配算法》

《表1 无线网络参数取值:基于深度强化学习的无线网络资源分配算法》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度强化学习的无线网络资源分配算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了证实DQN算法在复杂网络环境能否取得良好的效果,本文模拟多信道接入无线网络环境建立模型,随机选取30个节点组成15条通信链路,设置4个可选择信道,功率组合为2 mW、5 mW和9 mW。因此,动作空间的大小为12。本文构建的仿真模型和深度强化学习均由Python实现,并且基于TensorFlow、Gym和Keras设计和训练了DQN算法。本实验的网络参数和深度强化学习算法参数取值如表1和表2所示。训练所使用的神经网络为全连接神经网络,包含2个隐含层,每个隐含层分别拥有256和9个神经元。每个神经元使用的激活函数为修正线性单元(ReLU)。折扣因子的大小决定了算法对当前回报和未来回报的重视程度,折扣因子越小,算法越倾向于短期的高收益。由于本实验中需要连续做出一系列的动作,为了获得更加长期的高额回报,本文将折扣因子设置为0.9。