VASP

最終更新日: 2018年6月1日

VASP(Vienna Ab-initio Simulation Package)は密度汎関数法による平面波・疑ポテンシャル基底を用いた第一原理電子状態計算プログラムパッケージです。 結晶や無機固体の周期境界条件を用いた計算が可能です。


利用環境

  • サブシステムA
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    5.4.4
  • サブシステムB
  • バージョン 九州大学構成員 学術研究機関構成員 民間利用の方
    5.4.4
  • VASP利用ライセンスについて
  • センターの研究用計算機においてVASPを利用するためには、利用者自身でVASPライセンスを取得していただく必要があります。 利用をご希望の場合は取得したVASPのライセンス証書をご提示ください。
    ※質問等あればご連絡下さい。


    問い合わせ先

     〒819-0395 福岡市西区元岡744
      九州大学 情報システム部 情報基盤課 全国共同利用担当
      TEL: 092-802-2683
      Mail:zenkoku-kyodo[at]iii.kyushu-u.ac.jp


    ライセンスに関する購入及び問い合わせ等は以下(VASP Group)へ問合せください。
    VASP Group


利用方法

VASPのインプットファイルの作成方法は公式サイトのDocumentationページにあるVASP Workshop Lecturesを参考にしてください。


環境設定(moduleコマンド)

$ module load vasp/5.4.4-cpu
※計算が収束しないケースが発生する場合は以下の高精度オプションの環境設定をご利用ください
・O1版+高精度オプション
$ module load vasp/5.4.4-cpu_O1_precise
・O2版+高精度オプション
$ module load vasp/5.4.4-cpu_O2_precise

バッチジョブでの利用方法

バッチ処理用スクリプト記述例

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM --no-stging
#PJM -S
#PJM -j

LANG=C
module load vasp/5.4.4-cpu
cd $PJM_O_WORKDIR
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=8

mpirun -n 16 $VASP/vasp_std

  • サブシステムBでの実行を指定しています。
  • リソースグループは ito-g-16-dbg を指定しています。
  • VASPは確保した物理ノードを占有して実行しますのでvnode-core=36(ノードあたりの最大コア数)の設定を推奨します。
  • moduleコマンドによりVASPの環境設定を行っています。
  • 2ノードを使いノード当たりのMPI並列数を8に指定しています。

バッチ処理用スクリプト記述例(GPU版)

#!/bin/bash
#PJM -L "rscunit=ito-b"
#PJM -L "rscgrp=ito-g-16-dbg"
#PJM -L "vnode=2"
#PJM -L "vnode-core=36"
#PJM --no-stging
#PJM -S
#PJM -j

LANG=C
module load vasp/5.4.4-gpu
cd $PJM_O_WORKDIR
export I_MPI_HYDRA_BOOTSTRAP_EXEC=pjrsh
export I_MPI_HYDRA_HOST_FILE=$PJM_O_NODEINF
export I_MPI_DEVICE=rdma
export I_MPI_PERHOST=2

$I_MPI_ROOT/bin64/mpirun -n 4 $VASP/vasp_gpu

  • サブシステムBでの実行を指定しています。
  • リソースグループは ito-g-16-dbg を指定しています。
  • VPSPは確保した物理ノードを占有して実行しますのでvnode-core=36 (ノードあたりの最大コア数)の設定を推奨します。
  • moduleコマンドによりVASP GPU版の環境設定を行っています。
  • 2ノードを使いノードあたりのMPI並列数を2に指定しています。GPU版ではMPI並列数に制限がありますので出力されるメッセージにご注意ください。