Я запускаю задание mpi на openmpi 3.1.0, где я намеревался связать все процессы с ядрами, как описано в документах :
#SBATCH --nodes=3
#SBATCH --ntasks-per-node=32
#SBATCH --exclusive
mpirun --bind-to core --display-map --mca btl openib,self,vader ./wrf.exe`
, но в результате сопоставленияпоказывает, что привязываются только процессы на первом узле:
Data for node: compute-0 Num slots: 32 Max slots: 0 Num procs: 32
Process OMPI jobid: [65371,1] App: 0 Process rank: 0 Bound: socket 0[core 0[hwt 0-1]]:[BB/../../../../../../../../../../../../../../..][../../../../../../../.
./../../../../../../../..]
Process OMPI jobid: [65371,1] App: 0 Process rank: 1 Bound: socket 1[core 16[hwt 0-1]]:[../../../../../../../../../../../../../../../..][BB/../../../../../../
../../../../../../../../..]
Process OMPI jobid: [65371,1] App: 0 Process rank: 2 Bound: socket 0[core 1[hwt 0-1]]:[../BB/../../../../../../../../../../../../../..][../../../../../../../.
./../../../../../../../..]
<snip>
Data for node: compute-1 Num slots: 32 Max slots: 0 Num procs: 32
Process OMPI jobid: [65371,1] App: 0 Process rank: 32 Bound: N/A
Process OMPI jobid: [65371,1] App: 0 Process rank: 33 Bound: N/A
Process OMPI jobid: [65371,1] App: 0 Process rank: 34 Bound: N/A
<snip>
Data for node: compute-2 Num slots: 32 Max slots: 0 Num procs: 32
Process OMPI jobid: [65371,1] App: 0 Process rank: 64 Bound: N/A
Process OMPI jobid: [65371,1] App: 0 Process rank: 65 Bound: N/A
Process OMPI jobid: [65371,1] App: 0 Process rank: 66 Bound: N/A
<snip>
Это ожидаемое поведение? Если да, то как мне сказать openmpi связываться с ядром на всех узлах?