実行方法と資源の制限値
最終更新日:2023年4月14日プログラムを翻訳・編集結合・実行する方法は、大きく 対話型処理と バッチ処理に分かれます。
対話型処理とは、利用者がコマンドを入力することによって ソースプログラムの翻訳処理や実行可能プログラムの 実行などをインタラクティブに行なう利用方法のことです。 対話型処理は、翻訳や小規模なプログラムの実行に適しています。
バッチ処理とは、 利用者が一連のプログラム実行を記述した「ジョブスクリプトファイル」を作成し、 そのジョブを計算機に一括で実行させる方法です。 バッチ処理は、多くの記憶領域を必要とするプログラムや長い実行時間を要するプログラム、 並列度の高いプログラムの実行に適しています。
制限値
処理形態 | リソースユニット (サブシステム)名 |
リソースグループ(キュー)名 | ノード数[GPU数] | コア数 | 記憶容量 (最大) |
最大計算時間 | 備考 |
---|---|---|---|---|---|---|---|
対話型処理 (ログインノードのみ) |
--- | --- | 1 | 36 | 6GB | 1h | プログラム作成、デバッグ用 より大規模メモリ・長時間の計算には対話型ジョブをご利用下さい |
バッチ 処理 (共有ノードプラン専用) |
ito-a | ito-q-dbg | 1/4 | 9 | 42GB | 1h | 短時間ジョブ用、ノード内複数ジョブ共有可 |
ito-ss-dbg | 1 | 36 | 168GB | 1h | 短時間ジョブ用 | ||
ito-s-dbg | 4 | 36×4 | 168GB×4 | 1h | 短時間ジョブ用 | ||
ito-m-dbg | 16 | 36×16 | 168GB×16 | 1h | 短時間ジョブ用 | ||
ito-l-dbg | 64 | 36×64 | 168GB×64 | 1h | 短時間ジョブ用(2018年9月より試験運用) | ||
ito-xl-dbg | 128 | 36×128 | 168GB×128 | 1h | 短時間ジョブ用(2018年9月より試験運用) | ||
ito-xxl-dbg | 256 | 36×256 | 168GB×256 | 1h | 短時間ジョブ用(2018年9月より試験運用) | ||
ito-single | 1/36 | 1 | 4.6GB | 168h | ノード内複数ジョブ共有可 | ||
ito-qq | 1/12 | 3 | 14GB | 168h | ノード内複数ジョブ共有可 | ito-q | 1/4 | 9 | 42GB | 168h | ノード内複数ジョブ共有可 |
ito-ss | 1 | 36 | 168GB | 96h | シングルノードジョブ専用 | ||
ito-s | 4 | 36×4 | 168GB×4 | 48h | 4ノードまで利用可能 | ||
ito-m | 16 | 36×16 | 168GB×16 | 24h | 16ノードまで利用可能 | ||
ito-l | 64 | 36×64 | 168GB×64 | 12h | 64ノードまで利用可能 | ||
ito-xl | 128 | 36×128 | 168GB×128 | 6h | 128ノードまで利用可能 | ||
ito-xxl | 256 | 36×256 | 168GB×256 | 6h | 256ノードまで利用可能 | ||
ito-b | ito-g-1-dbg | 1/4[1] | 9 | 84GB | 1h | 短時間ジョブ用 | |
ito-g-4-dbg | 1[4] | 36 | 336GB | 1h | 短時間ジョブ用 | ||
ito-g-16-dbg | 4[16] | 36×4 | 336GB×4 | 1h | 短時間ジョブ用 | ||
ito-g-1 | 1/4[1] | 9 | 84GB | 168h | 1GPUジョブ専用 | ||
ito-g-4 | 1[4] | 36 | 336GB | 48h | シングルノードジョブ専用 | ||
ito-g-16 | 4[16] | 36×4 | 336GB×4 | 24h | 4ノードまで利用可能 | ||
ito-g-64 | 16[64] | 36×16 | 336GB×16 | 12h | 16ノードまで利用可能 | ||
対話型ジョブ (全ユーザ共通) |
ito-a | ito-i-single | 1/36 | 1 | 4.6GB | 24h | 対話型ジョブ実行用、ノード内複数ジョブ共有 |
ito-i-qqq | 1/18 | 2 | 9GB | 24h | 対話型ジョブ実行用、ノード内複数ジョブ共有 | ||
ito-i-qq | 1/12 | 3 | 14GB | 24h | 対話型ジョブ実行用、ノード内複数ジョブ共有 | ||
ito-i-q | 1/4 | 9 | 42GB | 24h | 対話型ジョブ実行用、ノード内複数ジョブ共有 | ||
ito-i-ss | 1 | 36 | 168GB | 12h | 対話型ジョブ実行用 | ||
ito-b | ito-i-g-1 | 1/4[1] | 9 | 84GB | 24h | 対話型ジョブ実行用、ノード内複数ジョブ共有 | |
ito-i-g-4 | 1[4] | 36 | 336GB | 12h | 対話型ジョブ実行用 |
-
HPCI, JHPCN課題で共有タイプの資源(バッチ処理)をご利用の場合は、上表のリソースグループ名の"ito"を"hp"に置き換えてください。
例えば、256ノードジョブを実行する場合、hp-xxlを指定してください。 - 計算時間はバッチ処理用スクリプトにて 最大経過時間(elapse)の指定がない場合はデフォルト値として “1h”となります。
- ito-qq/ito-q/ito-q-dbgでは 1ノードに複数ジョブが混在する可能性があります。
- 計算時間は対話型処理が積算のCPU時間、バッチ処理が経過時間です。
- バッチ処理では各ノードあたり36コアまでのスレッド並列化が可能です。
- ノードをまたがった分散並列実行はMPIを用いる必要があります。 また、最大コア数までのフラットのプロセス並列実行も可能です。
- 対話型処理の並列処理は共有利用ですので、 実行性能にバラツキがある可能性があります。
ディスクの使用状況を確認する方法
指定グループ名のディスクの使用状況は以下のコマンドで確認できます。
$ lfs quota -g グループ名 /home Disk quotas for user username (uid XXXXX): Filesystem kbytes quota limit grace files quota limit grace /home 10539640 0 0 - 12904 0 0 - Disk quotas for group groupname (gid XXXXX): Filesystem kbytes quota limit grace files quota limit grace /home 10539640 30601641984 30601641984 - 12904 80000000 100000000 - |
$ qrepquota Disk quotas for members of group groupname (gid XXXXX): Filesystem kbytes quota limit grace files quota limit grace /home 814004844 0 0 - 151960 0 0 - [XXXXXXX] /home 520979884 0 0 - 34923 0 0 - [XXXXXXX] /home 216595264 0 0 - 23694 0 0 - [XXXXXXX] /home 1220582912 0 0 - 268025 0 0 - [XXXXXXX] /home 138331992 0 0 - 5356 0 0 - [XXXXXXX] /home 29252740 0 0 - 184276 0 0 - [XXXXXXX] * each member's quotas include another group's consumption, if the member belongs to multiple group. Disk quotas for group groupname (gid XXXXX): Filesystem kbytes quota limit grace files quota limit grace /home 90117296 10737418240 10737418240 - 32469 8000000 10000000 - |
- システム全体の空きディスク容量が逼迫した際は、 上限値に達していなくてもファイルの削除・退避をお願いする場合がございます。
- 課題参加者の変更・削除等により、 グループに所属するユーザアカウントに変更があった場合、 過去にグループに所属していたユーザのアカウント毎の ディスク使用状況が表示されないことがあります。 過去にグループに参加していたユーザのディスク使用状況について ご質問等ございましたらグループ名、 ユーザ名を明記の上、 以下の宛先まで メールにてお問い合わせください。
問い合わせ先
〒819-0395 福岡市西区元岡744九州大学 情報システム部 情報基盤課 研究支援担当(IW2)
Mail: