LAMMPS

最終更新日:2021年9月10日

LAMMPSはオープンソースの汎用古典分子動力学アプリケーションソフトウェアです。ソフトマター(高分子、コロイド、生体分子など)、固体(金属、半導体など)、メゾスコピック系などの様々な系において動力学計算ができ、一般的な粒子のシミュレーターとしても利用可能です。


LAMMPS


利用環境

  • サブシステムA
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    7Aug2019
    11Aug2017
  • サブシステムB
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    7Aug2019
    11Aug2017

利用方法

環境設定

2019の場合

$ module load lammps/7Aug2019

Intel MPI 2018.3がロードされます。

2017の場合

$ module load lammps/11Aug2017

Intel MPI 2017がロードされます。


バッチ処理(サブシステムA)

#!/bin/bash
#PJM -L "rscunit=ito-a"
#PJM -L "rscgrp=ito-s-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S

module load lammps/11Aug2017
export I_MPI_PERHOST=1
export I_MPI_FABRICS=shm:ofa
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}
export OMP_NUM_THREADS=36
export KMP_AFFINTY=granularity=fine,compact
mpiexec.hydra -n 4 lmp_mpi -in in.lj > out_4n36t.out
  • リソースグループ ito-s-dbg を指定しています。
  • 4ノード・1ノード当たり1プロセス36スレッドを指定しています。
  • 2019の場合はlmp_mpiをlmp_itoに置き換えてください。

バッチ処理(サブシステムB:GPU対応)

2019の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4"
#PJM -L "vnode=1"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S

module load lammps/7Aug2019_gpu

NUM_NODES=${PJM_VNODES}
NUM_CORES=36
NUM_PROCS=1
NUM_THREADS=36

export I_MPI_PERHOST=`expr $NUM_CORES / $NUM_THREADS`
export I_MPI_FABRICS=shm:ofa
export OMP_NUM_THREADS=36

export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}

export Files="Epoxy-1H_lammps.txt"

for file in $Files; do
  mpiexec.hydra -n $NUM_PROCS lmp_ito -sf gpu -pk gpu 2 < $file > output_gpu_$file
done 

2017の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-4"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -L "elapse=10:00"
#PJM -j
#PJM -S

module load lammps/11Aug2017

NUM_NODES=${PJM_VNODES}
NUM_CORES=36
NUM_PROCS=4
NUM_THREADS=18

export I_MPI_PERHOST=`expr $NUM_CORES / $NUM_THREADS`
export I_MPI_FABRICS=shm:ofa

export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/bin/pjrsh
export I_MPI_HYDRA_HOST_FILE=${PJM_O_NODEINF}

export Files="in*"

for file in $Files; do
  mpiexec.hydra -n $NUM_PROCS lmp_mpi -sf gpu -pk gpu 1 < $file > output_gpu_$file
done 

  • リソースグループ ito-s-4 を指定しています。
  • 2ノード・1ノード当たり1プロセス36スレッドを指定しています。
  • 2019の場合はlmp_mpiをlmp_itoに置き換えてください。