《表4 MPI/OpenMP计算测试(JSM外形粗网格)》
![《表4 MPI/OpenMP计算测试(JSM外形粗网格)》](http://bookimg.mtoou.info/tubiao/gif/KQDX201906002_10300.gif)
本系列图表出处文件名:随高清版一同展现
《湍流模拟壁面距离MPI/OpenMP混合并行计算方法》
正如上文所言,由于ADT搜索过程中每个进程都需要有全局壁面信息的备份,可能带来内存开销的大幅增加,上文的MPI/OpenMP混合并行的目的正是为了解决内存开销问题。表4中给出了粗网格在不同线程/进程数情况下的内存耗费和测试时间,可以看到,即使对于粗网格而言,如果用纯MPI并行计算(2048×1),每个节点内的16个CPU核都拥有一个全局壁面信息备份,单节点内存耗费将达到23.2%;而在MPI/OpenMP混合并行情况下,如果1个节点内只用2个MPI进程(256×8),单节点内存耗费降到7.8%。对于密网格,如果采用纯MPI并行计算,其内存耗费约为120GB,将远远超过节点内存,必须采用混合并行计算。
图表编号 | XD00135662600 严禁用于非法目的 |
---|---|
绘制时间 | 2019.12.01 |
作者 | 赵钟、何磊、张健、徐庆新、张来平 |
绘制单位 | 中国空气动力研究与发展中心计算空气动力研究所、中国空气动力研究与发展中心计算空气动力研究所、中国空气动力研究与发展中心计算空气动力研究所、中国空气动力研究与发展中心计算空气动力研究所、中国空气动力研究与发展中心计算空气动力研究所 |
更多格式 | 高清、无水印(增值服务) |