openmpi --bind-to core - только кажется, что работает на первом узле - PullRequest
0 голосов
/ 25 октября 2019

Я запускаю задание mpi на openmpi 3.1.0, где я намеревался связать все процессы с ядрами, как описано в документах :

#SBATCH --nodes=3
#SBATCH --ntasks-per-node=32
#SBATCH --exclusive
mpirun --bind-to core --display-map --mca btl openib,self,vader ./wrf.exe`

, но в результате сопоставленияпоказывает, что привязываются только процессы на первом узле:

 Data for node: compute-0        Num slots: 32   Max slots: 0    Num procs: 32
        Process OMPI jobid: [65371,1] App: 0 Process rank: 0 Bound: socket 0[core 0[hwt 0-1]]:[BB/../../../../../../../../../../../../../../..][../../../../../../../.
      ./../../../../../../../..]
        Process OMPI jobid: [65371,1] App: 0 Process rank: 1 Bound: socket 1[core 16[hwt 0-1]]:[../../../../../../../../../../../../../../../..][BB/../../../../../../
      ../../../../../../../../..]
        Process OMPI jobid: [65371,1] App: 0 Process rank: 2 Bound: socket 0[core 1[hwt 0-1]]:[../BB/../../../../../../../../../../../../../..][../../../../../../../.
      ./../../../../../../../..]
<snip>

Data for node: compute-1        Num slots: 32   Max slots: 0    Num procs: 32
        Process OMPI jobid: [65371,1] App: 0 Process rank: 32 Bound: N/A
        Process OMPI jobid: [65371,1] App: 0 Process rank: 33 Bound: N/A
        Process OMPI jobid: [65371,1] App: 0 Process rank: 34 Bound: N/A
<snip>

 Data for node: compute-2        Num slots: 32   Max slots: 0    Num procs: 32
        Process OMPI jobid: [65371,1] App: 0 Process rank: 64 Bound: N/A
        Process OMPI jobid: [65371,1] App: 0 Process rank: 65 Bound: N/A
        Process OMPI jobid: [65371,1] App: 0 Process rank: 66 Bound: N/A
<snip>

Это ожидаемое поведение? Если да, то как мне сказать openmpi связываться с ядром на всех узлах?

...