Я запускаю приблизительно 400 файлов через конвейер SLURM с помощью sbatch. Когда я ставлю задачу в очередь с sbatch ./myscript.sh file_x
, все файлы попадают в очередь на одном узле.
Я пробовал вариацию параметров #SBATCH
в начале скрипта sbatch, но безуспешно. Вот что я пробовал до сих пор:
#!/bin/bash
#SBATCH -N 1
#SBATCH -n 60
#SBATCH -o slurm_out/output_%j.txt
#SBATCH -e slurm_error/error_%j.txt
и
#!/bin/bash
#SBATCH -n 60
#SBATCH -o slurm_out/output_%j.txt
#SBATCH -e slurm_error/error_%j.txt
и
#!/bin/bash
#SBATCH -N 1
#SBATCH -o slurm_out/output_%j.txt
#SBATCH -e slurm_error/error_%j.txt
и
#!/bin/bash
#SBATCH -o slurm_out/output_%j.txt
#SBATCH -e slurm_error/error_%j.txt
Файлы slurm_out создаются и записываются, поэтому SBATCH определенно выбирает параметры.
в отношении опции -n, в документах говорится, что по умолчанию "одна задача на узел", однако, похоже, что это не так:
-n, --ntasks = sbatch не запускает задачи, запрашивает распределение ресурсов и отправляет пакетный скрипт. Этот вариант
сообщает контроллеру Slurm, что рабочие шаги выполняются в пределах выделения
запустит максимум количество задач и обеспечит достаточное
Ресурсы. По умолчанию это одна задача на узел, но учтите, что
Опция --cpus-per-task изменит это значение по умолчанию.
Какие параметры получит одно задание на узел?