《表4 MPI/OpenMP计算测试(JSM外形粗网格)》

《表4 MPI/OpenMP计算测试(JSM外形粗网格)》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《湍流模拟壁面距离MPI/OpenMP混合并行计算方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

正如上文所言,由于ADT搜索过程中每个进程都需要有全局壁面信息的备份,可能带来内存开销的大幅增加,上文的MPI/OpenMP混合并行的目的正是为了解决内存开销问题。表4中给出了粗网格在不同线程/进程数情况下的内存耗费和测试时间,可以看到,即使对于粗网格而言,如果用纯MPI并行计算(2048×1),每个节点内的16个CPU核都拥有一个全局壁面信息备份,单节点内存耗费将达到23.2%;而在MPI/OpenMP混合并行情况下,如果1个节点内只用2个MPI进程(256×8),单节点内存耗费降到7.8%。对于密网格,如果采用纯MPI并行计算,其内存耗费约为120GB,将远远超过节点内存,必须采用混合并行计算。