CP2K
最終更新日:2024年7月2日
CP2Kは、固体、液体、分子、材料、結晶、生物系のための、擬ポテンシャル法および全電子計算法に対応した第一原理計算ライブラリです。
CP2K
利用環境
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
2023.1 |
○ |
○ |
○ |
バージョン |
九州大学構成員 |
学術研究機関構成員 |
民間利用の方 |
2023.1 |
○ |
○ |
○ |
利用方法
環境設定
CPU版を利用する場合
$ module load intel/2023.2
$ module load impi
$ module load hdf5
$ module load cp2k-cpu
GPU版を利用する場合
$ module load intel/2023.2
$ module load impi
$ module load hdf5
$ module load cuda
$ module load cp2k-gpu
バッチ処理
バッチ処理(MPI並列)
#!/bin/bash
#PJM -L rscgrp=a-batch
#PJM -L node=1
#PJM --mpi proc=8
#PJM -L elapse=2:00:00
#PJM -j
module load intel/2023.2
module load impi
module load hdf5
module load cp2k-cpu
mpiexec cp2k.popt -i geo.inp > output
|
- 1ノード使用、8プロセスを指定しています。
- 入力ファイルとして
geo.inp
を指定しています。
- 標準出力される計算結果をoutputに書き込みしています。
バッチ処理(ハイブリッド並列)
#!/bin/bash
#PJM -L rscgrp=a-batch
#PJM -L node=1
#PJM --mpi proc=2
#PJM -L elapse=2:00:00
#PJM -j
module load intel/2023.2
module load impi
module load hdf5
module load cp2k-cpu
export OMP_NUM_THREADS=2
mpiexec cp2k.psmp -i geo.inp > output
|
- 1ノード使用、2プロセス、1プロセス2スレッドを指定しています。
バッチ処理(GPU版利用)
#!/bin/bash
#PJM -L rscgrp=b-batch
#PJM -L node=1
#PJM --mpi proc=4
#PJM -L elapse=2:00:00
#PJM -j
module load intel/2023.2
module load impi
module load hdf5
module load cuda
module load cp2k-gpu
export OMP_NUM_THREADS=1
mpirun -map-by ppr:2:node cp2k.psmp -i geo.inp > output
|
- 1ノード使用(ノード専有)、4プロセス、1プロセス1スレッド、4GPUを指定しています。