由于摩尔定律的逐渐失效,硬件正在朝着多核架构的方向发展,其中最具有代表性的就是图形处理器GPU。GPU的主要架构是执行单指令、多数据(SIMD)处理的大量并行计算单元,而MD的每次迭代也具有很好的可并行性,这使得GPU可以提供很好的加速效果。
Buck等人[8]第一次实现MD的GPU加速,使用早期的BrookGPU框架加速了MD中LJ势能作用力和库仑力的计算。Liu等人[9-10]第一次使用CUDA实现了MD的GPU加速。Stone等MD软件开发人员[11]第一次在专用软件NAMD中实现MD的GPU加速。2008年Anderson等人[12]在开源软件包HOOMD-blue中实现了通用MD模拟的GPU加速,使得HOOMD-blue成为第一款具有GPU加速MD功能的开源软件包。MD领域另一个流行的开源软件包是OpenMM,Friedrichs等人[13-14]报告了此工具包第一个GPU加速MD的代码。2010年,Torott等人[15]为开放源代码的经典MD软件LAMMPS提供了第一个GPU加速版本。
近些年对于GPU的研究更多是在多体势的计算加速上。Hohnerbach等人[16]采用不同的方法来加速三体势能Tersoff,并对性能进行评估对比。Nguyen等人[17]则将Tersoff的几个变体实现到开源LAMMPS中。
虽然GPU的高并行性和不错的可编程性使得其在实现MD模拟时受到了学术者的欢迎,但是功耗始终是评估计算设备特性的非常重要的因素。在面对现实需求采用GPU进行长达数月的大规模MD模拟时将会面临极大的功耗问题。
参考自:
吴子刚. 基于FPGA的分子动力学计算系统研究与设计[D]. 江南大学, DOI:10.27169/d.cnki.gwqgu.2021.000131.
获取引用的文献请阅读论文原文。