AMBER

最終更新日:2021年5月21日

AMBERはカリフォルニア大学のコールマン教授らのグループによって開発されたモデリングおよび分子力学・動力学計算シミュレーションプログラムのパッケージです。 溶媒水分子の配置や電荷のフィッティングを行なうビルダーモジュールなどのプログラムが多数用意されています。


利用環境

  • サブシステムA
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    16
    18
    20
  • サブシステムB
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    16
    18
    20

サイトライセンス(九州大学限定)


利用方法

環境設定

AMBER 16を利用する場合(CPU版)

$ module load amber/16-cpu

AMBER 16を利用する場合(GPU版)

$ module load amber/16-gpu

AMBER 18を利用する場合(CPU版)

$ module load amber/18-cpu

AMBER 18を利用する場合(GPU版)

$ module load amber/18-gpu

AMBER 20を利用する場合(CPU版)

$ module load amber/20-cpu

AMBER 20を利用する場合(GPU版)

$ module load amber/20-gpu

実行方法

AMBER 16 CPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load amber/16-cpu

export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8

# sander serial version
$AMBERHOME/bin/sander -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander

# pmemd serial version
$AMBERHOME/bin/pmemd -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd

# sander parallel version
mpirun -n 16 $AMBERHOME/bin/sander.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-sander.MPI

# pmemd parallel version
mpirun -n 16 $AMBERHOME/bin/pmemd.MPI -O -i Run.dhfr -c md12.x -p prmtop -o mdout.jar-pmemd.MPI

AMBER 16 GPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=4"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load amber/16-gpu

export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4

# pmemd serial version
$AMBERHOME/bin/pmemd.cuda_SPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP
$AMBERHOME/bin/pmemd.cuda_SPXP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP
$AMBERHOME/bin/pmemd.cuda_DPFP -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP

# pmemd parallel version
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_SPXP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPXP.MPI
mpirun -n 8 $AMBERHOME/bin/pmemd.cuda_DPFP.MPI -O -i Run.pure_wat -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP.MPI

AMBER 18 CPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-a"
#PJM -L "rscgrp=ito-s-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -S

LANG=C

module load amber/18-cpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8

# sander serial version
$AMBERHOME/bin/sander -O -i gbin -c dna.crd -p prmtop -o mdout.jar-sander

# pmemd serial version
$AMBERHOME/bin/pmemd -O -i gbin -c dna.crd -p prmtop -o mdout.jar-pmemd

# sander parallel version
mpiexec.hydra -n 16 $AMBERHOME/bin/sander.MPI -O -i gbin -c dna.crd -p prmtop -o mdout.jar-sander.MPI

# pmemd parallel version
mpiexec.hydra -n 16 $AMBERHOME/bin/pmemd.MPI -O -i gbin -c dna.crd -p prmtop -o mdout.jar-pmemd.MPI

AMBER 18 GPU版の場合

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM -L "elapse=00:20:00"
#PJM -S

LANG=C

module load amber/18-gpu
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=4

# pmemd serial version
$AMBERHOME/bin/pmemd.cuda_SPFP -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP
$AMBERHOME/bin/pmemd.cuda_DPFP -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP

# pmemd parallel version
mpiexec.hydra -n 8 $AMBERHOME/bin/pmemd.cuda_SPFP.MPI -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_SPFP.MPI
mpiexec.hydra -n 8 $AMBERHOME/bin/pmemd.cuda_DPFP.MPI -O -i mdin -c eq1.x -o mdout.pure_wat-pmemd.cuda_DPFP.MPI

特に正常終了を確認できる方法はありませんが、出力ログの最後にTIMINGS情報が出力されます。