実行方法と資源の制限値

最終更新日:2023年4月14日

プログラムを翻訳・編集結合・実行する方法は、大きく 対話型処理バッチ処理に分かれます。

対話型処理とは、利用者がコマンドを入力することによって ソースプログラムの翻訳処理や実行可能プログラムの 実行などをインタラクティブに行なう利用方法のことです。 対話型処理は、翻訳や小規模なプログラムの実行に適しています。

バッチ処理とは、 利用者が一連のプログラム実行を記述した「ジョブスクリプトファイル」を作成し、 そのジョブを計算機に一括で実行させる方法です。 バッチ処理は、多くの記憶領域を必要とするプログラムや長い実行時間を要するプログラム、 並列度の高いプログラムの実行に適しています。

制限値

処理形態 リソースユニット
(サブシステム)名
リソースグループ(キュー)名 ノード数[GPU数] コア数 記憶容量
(最大)
最大計算時間 備考
対話型処理
(ログインノードのみ)
--- --- 1 36 6GB 1h プログラム作成、デバッグ用
より大規模メモリ・長時間の計算には対話型ジョブをご利用下さい
バッチ
処理
(共有ノードプラン専用)
ito-a ito-q-dbg 1/4 9 42GB 1h 短時間ジョブ用、ノード内複数ジョブ共有可
ito-ss-dbg 1 36 168GB 1h 短時間ジョブ用
ito-s-dbg 4 36×4 168GB×4 1h 短時間ジョブ用
ito-m-dbg 16 36×16 168GB×16 1h 短時間ジョブ用
ito-l-dbg 64 36×64 168GB×64 1h 短時間ジョブ用(2018年9月より試験運用)
ito-xl-dbg 128 36×128 168GB×128 1h 短時間ジョブ用(2018年9月より試験運用)
ito-xxl-dbg 256 36×256 168GB×256 1h 短時間ジョブ用(2018年9月より試験運用)
ito-single 1/36 1 4.6GB 168h ノード内複数ジョブ共有可
ito-qq 1/12 3 14GB 168h ノード内複数ジョブ共有可
ito-q 1/4 9 42GB 168h ノード内複数ジョブ共有可
ito-ss 1 36 168GB 96h シングルノードジョブ専用
ito-s 4 36×4 168GB×4 48h 4ノードまで利用可能
ito-m 16 36×16 168GB×16 24h 16ノードまで利用可能
ito-l 64 36×64 168GB×64 12h 64ノードまで利用可能
ito-xl 128 36×128 168GB×128 6h 128ノードまで利用可能
ito-xxl 256 36×256 168GB×256 6h 256ノードまで利用可能
ito-b ito-g-1-dbg 1/4[1] 9 84GB 1h 短時間ジョブ用
ito-g-4-dbg 1[4] 36 336GB 1h 短時間ジョブ用
ito-g-16-dbg 4[16] 36×4 336GB×4 1h 短時間ジョブ用
ito-g-1 1/4[1] 9 84GB 168h 1GPUジョブ専用
ito-g-4 1[4] 36 336GB 48h シングルノードジョブ専用
ito-g-16 4[16] 36×4 336GB×4 24h 4ノードまで利用可能
ito-g-64 16[64] 36×16 336GB×16 12h 16ノードまで利用可能
対話型ジョブ
(全ユーザ共通)
ito-a ito-i-single 1/36 1 4.6GB 24h 対話型ジョブ実行用、ノード内複数ジョブ共有
ito-i-qqq 1/18 2 9GB 24h 対話型ジョブ実行用、ノード内複数ジョブ共有
ito-i-qq 1/12 3 14GB 24h 対話型ジョブ実行用、ノード内複数ジョブ共有
ito-i-q 1/4 9 42GB 24h 対話型ジョブ実行用、ノード内複数ジョブ共有
ito-i-ss 1 36 168GB 12h 対話型ジョブ実行用
ito-b ito-i-g-1 1/4[1] 9 84GB 24h 対話型ジョブ実行用、ノード内複数ジョブ共有
ito-i-g-4 1[4] 36 336GB 12h 対話型ジョブ実行用
  • HPCI, JHPCN課題で共有タイプの資源(バッチ処理)をご利用の場合は、上表のリソースグループ名の"ito"を"hp"に置き換えてください。
    例えば、256ノードジョブを実行する場合、hp-xxlを指定してください。
  • 計算時間はバッチ処理用スクリプトにて 最大経過時間(elapse)の指定がない場合はデフォルト値として “1h”となります。
  • ito-qq/ito-q/ito-q-dbgでは 1ノードに複数ジョブが混在する可能性があります。
  • 計算時間は対話型処理が積算のCPU時間、バッチ処理が経過時間です。
  • バッチ処理では各ノードあたり36コアまでのスレッド並列化が可能です。
  • ノードをまたがった分散並列実行はMPIを用いる必要があります。 また、最大コア数までのフラットのプロセス並列実行も可能です。
  • 対話型処理の並列処理は共有利用ですので、 実行性能にバラツキがある可能性があります。

ディスクの使用状況を確認する方法

指定グループ名のディスクの使用状況は以下のコマンドで確認できます。
$ lfs quota -g グループ名 /home
Disk quotas for user username (uid XXXXX):
     Filesystem  kbytes   quota   limit   grace   files   quota   limit   grace
          /home 10539640       0       0       -   12904       0       0       -
Disk quotas for group groupname (gid XXXXX):
     Filesystem  kbytes   quota   limit   grace   files   quota   limit   grace
          /home 10539640  30601641984 30601641984       -   12904  80000000 100000000       -
同じグループ内の各アカウント毎のディスクの使用状況(使用量・ファイル数)は以下のコマンドで確認できます。
$ qrepquota
Disk quotas for members of group groupname (gid XXXXX):
     Filesystem  kbytes   quota   limit   grace   files   quota   limit   grace
          /home 814004844     0       0       -  151960       0       0       -     [XXXXXXX]
          /home 520979884     0       0       -   34923       0       0       -     [XXXXXXX]
          /home 216595264     0       0       -   23694       0       0       -     [XXXXXXX]
          /home 1220582912    0       0       -  268025       0       0       -     [XXXXXXX]
          /home 138331992     0       0       -    5356       0       0       -     [XXXXXXX]
          /home 29252740      0       0       -  184276       0       0       -     [XXXXXXX]

 * each member's quotas include another group's consumption, if the member belongs to multiple group.

Disk quotas for group groupname (gid XXXXX):
     Filesystem  kbytes   quota   limit   grace   files   quota   limit   grace
          /home 90117296  10737418240 10737418240       -   32469  8000000 10000000       -
※各アカウント[XXXXXXX]の使用状況は複数のグループに属している場合はその合算値となりますのでご注意ください。
  • システム全体の空きディスク容量が逼迫した際は、 上限値に達していなくてもファイルの削除・退避をお願いする場合がございます。
  • 課題参加者の変更・削除等により、 グループに所属するユーザアカウントに変更があった場合、 過去にグループに所属していたユーザのアカウント毎の ディスク使用状況が表示されないことがあります。 過去にグループに参加していたユーザのディスク使用状況について ご質問等ございましたらグループ名、 ユーザ名を明記の上、 以下の宛先まで メールにてお問い合わせください。

問い合わせ先

 〒819-0395 福岡市西区元岡744
  九州大学 情報システム部 情報基盤課 研究支援担当(IW2)
  Mail:request[at]iii.kyushu-u.ac.jp