LAMMPS
最終更新日:2021年9月10日
LAMMPSはオープンソースの汎用古典分子動力学アプリケーションソフトウェアです。ソフトマター(高分子、コロイド、生体分子など)、固体(金属、半導体など)、メゾスコピック系などの様々な系において動力学計算ができ、一般的な粒子のシミュレーターとしても利用可能です。
LAMMPS
利用環境
- サブシステムA
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
7Aug2019 |
○ |
○ |
○ |
11Aug2017 |
○ |
○ |
○ |
- サブシステムB
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
7Aug2019 |
○ |
○ |
○ |
11Aug2017 |
○ |
○ |
○ |
利用方法
環境設定
2019の場合
$ module load lammps/7Aug2019 |
Intel MPI 2018.3がロードされます。
2017の場合
$ module load lammps/11Aug2017 |
Intel MPI 2017がロードされます。
バッチ処理(サブシステムA)
#!/bin/bash
#PJM -L "rscunit=ito-a"
#PJM -L "rscgrp=ito-s-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S
module load lammps/11Aug2017
export I_MPI_PERHOST=1
export I_MPI_FABRICS=shm:ofa
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}
export OMP_NUM_THREADS=36
export KMP_AFFINTY=granularity=fine,compact
mpiexec.hydra -n 4 lmp_mpi -in in.lj > out_4n36t.out
|
- リソースグループ ito-s-dbg を指定しています。
- 4ノード・1ノード当たり1プロセス36スレッドを指定しています。
- 2019の場合はlmp_mpiをlmp_itoに置き換えてください。
バッチ処理(サブシステムB:GPU対応)
2019の場合
#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4"
#PJM -L "vnode=1"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S
module load lammps/7Aug2019_gpu
NUM_NODES=${PJM_VNODES}
NUM_CORES=36
NUM_PROCS=1
NUM_THREADS=36
export I_MPI_PERHOST=`expr $NUM_CORES / $NUM_THREADS`
export I_MPI_FABRICS=shm:ofa
export OMP_NUM_THREADS=36
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}
export Files="Epoxy-1H_lammps.txt"
for file in $Files; do
mpiexec.hydra -n $NUM_PROCS lmp_ito -sf gpu -pk gpu 2 < $file > output_gpu_$file
done
|
2017の場合
#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S
module load lammps/11Aug2017
NUM_NODES=${PJM_VNODES}
NUM_CORES=36
NUM_PROCS=4
NUM_THREADS=18
export I_MPI_PERHOST=`expr $NUM_CORES / $NUM_THREADS`
export I_MPI_FABRICS=shm:ofa
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}
export Files="in*"
for file in $Files; do
mpiexec.hydra -n $NUM_PROCS lmp_mpi -sf gpu -pk gpu 1 < $file > output_gpu_$file
done
|
- リソースグループ ito-s-4 を指定しています。
- 2ノード・1ノード当たり1プロセス36スレッドを指定しています。
- 2019の場合はlmp_mpiをlmp_itoに置き換えてください。