《表1 8个对比算法在25个benchmark函数上的优化结果》

《表1 8个对比算法在25个benchmark函数上的优化结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《GWO与ABC的混合优化算法及其聚类优化》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

与ABC和GWO比较.由表1可知,在7个单峰函数上,HGWOA获得6次最好值,其中在函数f1、f2、f4和f6上HGWOA取得了理论最优值.在函数f3上HGWOA虽未获得最好值,但其仅次于GWO.整体上来说,在获得最好值的单峰函数个数上,HGWOA要多于ABC和GWO,说明HGWOA的优化性能要优于ABC和GWO.从均值来看,GWO优于ABC的个数为5,说明ABC在单峰函数上的搜索精度不及GWO,即在局部搜索能力上,GWO强于ABC.在18个多峰函数上,HGWOA在3个算法中获得了17次最好值,其中在函数f9、f11、f16和f19上,HGWOA取得了理论最优值,体现了HGWOA较强的全局搜索能力;而在函数f10上HGWOA虽未获得最好值,其优化性能仅次于GWO.整体上来说,HGWOA在多峰函数上的优化性能优于ABC和GWO,表明HG-WOA具有较强的全局搜索能力,说明反向学习和静态贪心算法等策略的使用是有效的.从均值来看,ABC优于GWO的个数为15,说明ABC在多峰函数上,尤其在低维多峰函数上,大幅度优于GWO,这说明在全局搜索能力上,ABC强于GWO.综上所述,GWO具有较强的局部搜索能力,ABC具有较强的全局搜索能力,而HG-WOA的优化性能大幅度优于GWO和ABC,这是由于HGWOA是GWO和ABC的融合改进结果,实现了二者优势互补.多数情况下HGWOA是三个算法中方差最小的,说明其稳定性较好.