GROMACS

最終更新日:2018年9月14日

GROMACSは、スウェーデンを中心に世界各国に広がるメンバーで構成されたチームで開発されている分子力学・動力学計算シミュレーションプログラムです。 GPLライセンスのもとで利用可能ですが、機能の豊富さや高速性についても非常に高い評価を得ています。


利用環境

  • サブシステムA
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    2016.3
  • サブシステムB
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    2016.3

利用方法

環境設定

$ module load gromacs/2016.3-cpu

Gromacsは基本的にバッチ処理で行います。


バッチ処理(MPI並列)

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4-dbg"
#PJM -L "vnode=1"
#PJM -L "vnode-core=36"
#PJM -j
#PJM -S

LANG=C

module load gromacs/2016.3-cpu

export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4

export OMP_NUM_THREADS=4
mpirun -n 4 $GMXBIN/gmx_mpi mdrun -nsteps 1000 -deffnm ion_channel >& test.log
  • サブシステムBのリソースグループito-g-4-dbgを指定しています。
  • 計算実行前に必ずmodule load gromacs/2016.3-cpuを実行する必要があります。
  • 入力ファイルとしてion_channel.tprを指定しています。

バッチ処理(GPU版利用)

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4-dbg"
#PJM -L "vnode=1"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load gromacs/2016.3-gpu
cd $PJM_O_WORKDIR
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4

export OMP_NUM_THREADS=4
mpirun -n 4 $GMXBIN/gmx_mpi mdrun -gpu_id "0123" -nsteps 1000 -deffnm ion_channel >& test.log
  • サブシステムBのリソースグループito-g-4-dbgを指定しています。
  • 計算実行前に必ずmodule load gromacs/2016.3-gpuを実行する必要があります。
  • 入力ファイルとしてion_channel.tprを指定しています。

参考資料

マニュアル