AMBER
最終更新日:2021年5月21日
AMBERはカリフォルニア大学のコールマン教授らのグループによって開発されたモデリングおよび分子力学・動力学計算シミュレーションプログラムのパッケージです。
溶媒水分子の配置や電荷のフィッティングを行なうビルダーモジュールなどのプログラムが多数用意されています。
利用環境
- サブシステムA
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
16 |
○ |
○ |
- |
18 |
○ |
○ |
- |
20 |
○ |
○ |
- |
- サブシステムB
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
16 |
○ |
○ |
- |
18 |
○ |
○ |
- |
20 |
○ |
○ |
- |
サイトライセンス(九州大学限定)
利用方法
環境設定
AMBER 16を利用する場合(CPU版)
$ module load amber/16-cpu |
AMBER 16を利用する場合(GPU版)
$ module load amber/16-gpu |
AMBER 18を利用する場合(CPU版)
$ module load amber/18-cpu |
AMBER 18を利用する場合(GPU版)
$ module load amber/18-gpu |
AMBER 20を利用する場合(CPU版)
$ module load amber/20-cpu |
AMBER 20を利用する場合(GPU版)
$ module load amber/20-gpu |
実行方法
AMBER 16 CPU版の場合
#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S
LANG=C
module load amber/16-cpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8
# sander serial version
$AMBERHOME/bin/sander -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander
# pmemd serial version
$AMBERHOME/bin/pmemd -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd
# sander parallel version
mpirun -n 16 $AMBERHOME/bin/sander.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander.MPI
# pmemd parallel version
mpirun -n 16 $AMBERHOME/bin/pmemd.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd.MPI
|
AMBER 16 GPU版の場合
#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S
LANG=C
module load amber/16-gpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4
# pmemd serial version
$AMBERHOME/bin/pmemd.cuda_SPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP
$AMBERHOME/bin/pmemd.cuda_SPXP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP
$AMBERHOME/bin/pmemd.cuda_DPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP
# pmemd parallel version
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPXP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_DPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP.MPI
|
AMBER 18 CPU版の場合
#!/bin/bash
#PJM -L "rscunit=ito-a"
#PJM -L "rscgrp=ito-s-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -S
LANG=C
module load amber/18-cpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8
# sander serial version
$AMBERHOME/bin/sander -O -i gbin -c dna.crd -p prmtop -o mdout.jar-sander
# pmemd serial version
$AMBERHOME/bin/pmemd -O -i gbin -c dna.crd -p prmtop -o mdout.jar-pmemd
# sander parallel version
mpiexec.hydra -n 16 $AMBERHOME/bin/sander.MPI -O -i gbin -c dna.crd -p prmtop -o mdout.jar-sander.MPI
# pmemd parallel version
mpiexec.hydra -n 16 $AMBERHOME/bin/pmemd.MPI -O -i gbin -c dna.crd -p prmtop -o mdout.jar-pmemd.MPI
|
AMBER 18 GPU版の場合
#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -L "elapse=00:20:00"
#PJM -S
LANG=C
module load amber/18-gpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4
# pmemd serial version
$AMBERHOME/bin/pmemd.cuda_SPFP -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP
$AMBERHOME/bin/pmemd.cuda_DPFP -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP
# pmemd parallel version
mpiexec.hydra -n 8 $AMBERHOME/bin/pmemd.cuda_SPFP.MPI -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP.MPI
mpiexec.hydra -n 8 $AMBERHOME/bin/pmemd.cuda_DPFP.MPI -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP.MPI
|
特に正常終了を確認できる方法はありませんが、出力ログの最後にTIMINGS情報が出力されます。