AMBER

最終更新日:2018年1月9日

AMBERはカリフォルニア大学のコールマン教授らのグループによって開発されたモデリングおよび分子力学・動力学計算シミュレーションプログラムのパッケージです。 溶媒水分子の配置や電荷のフィッティングを行なうビルダーモジュールなどのプログラムが多数用意されています。


利用環境

  • サブシステムA
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    16
  • サブシステムB
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    16

利用方法

環境設定

CPU版の場合

$ module load amber/16-cpu

GPU版の場合

$ module load amber/16-gpu

実行方法

CPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load amber/16-cpu

export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8

# sander serial version
$AMBERHOME/bin/sander -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander

# pmemd serial version
$AMBERHOME/bin/pmemd -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd

# sander parallel version
mpirun -n 16 $AMBERHOME/bin/sander.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander.MPI

# pmemd parallel version
mpirun -n 16 $AMBERHOME/bin/pmemd.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd.MPI

GPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load amber/16-gpu

export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4

# pmemd serial version
$AMBERHOME/bin/pmemd.cuda_SPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP
$AMBERHOME/bin/pmemd.cuda_SPXP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP
$AMBERHOME/bin/pmemd.cuda_DPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP

# pmemd parallel version
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPXP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_DPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP.MPI

特に正常終了を確認できる方法はありませんが、出力ログの最後にTIMINGS情報が出力されます。