Ошибка MPI_Waitall для асинхронного MPI_Irecv - PullRequest
0 голосов
/ 24 сентября 2019

Я использовал 2 MPI_Irecv, затем 2 MPI_Send и затем MPI_Waitall для обоих MPI_Irecv следующим образом.Я снова написал этот же блок кода после нескольких вычислений.Но кажется, что процессы MPI терпят неудачу в первом блоке самого кода.

Мое общение таково, что матрица разделяется по горизонтали, поскольку нет процессов MPI, и связь происходит только между границами матрицы с сеткой ниже матрицы, посылая 'начало' / первую строку выше сетки матрицы и вышеМатричная сетка отправляет «конец» / последнюю строку в нижнюю матрицу матрицы.

MPI_Request request[2];
MPI_Status status[2];
double grid[size];
double grida[size];
.
.
.
<Calculation for grid2[][]>
...

MPI_Barrier(MPI_COMM_WORLD);
    if (world_rank != 0){
    MPI_Irecv(&grid, size, MPI_DOUBLE, world_rank-1, 0, MPI_COMM_WORLD, &request[1]);
    printf("1 MPI_Irecv");
    }
    if (world_rank != world_size-1){
    MPI_Irecv(&grida, size, MPI_DOUBLE, world_rank+1, 1, MPI_COMM_WORLD, &request[0]);
    printf("2 MPI_Irecv");
    }
    if (world_rank != world_size-1){
    MPI_Send(grid2[end], size, MPI_DOUBLE, world_rank+1, 0, MPI_COMM_WORLD);
    printf("1 MPI_Send");
    }
    if (world_rank != 0){
    MPI_Send(grid2[start], size, MPI_DOUBLE, world_rank-1, 1, MPI_COMM_WORLD);
    printf("2 MPI_Send");
    }
    MPI_Waitall(2, request, status); 

MPI_Barrier(MPI_COMM_WORLD);

.
.
.

<Again the above code but without the initialization of MPI_Request and MPI_Status>

Но для этого я получаю сообщение об ошибке:

 *** Process received signal ***
 Signal: Bus error: 10 (10)
 Signal code: Non-existant physical address (2)
 Failing at address: 0x108bc91e3
 [ 0] 0   libsystem_platform.dylib            0x00007fff50b65f5a _sigtramp + 26
 [ 1] 0   ???                                 0x000000010c61523d 0x0 + 4502671933
 [ 2] 0   libmpi.20.dylib                     0x0000000108bc8e4a MPI_Waitall + 154
 [ 3] 0   dist-jacobi                         0x0000000104b55770 Work + 1488
 [ 4] 0   dist-jacobi                         0x0000000104b54f01 main + 561
 [ 5] 0   libdyld.dylib                       0x00007fff508e5145 start + 1
 [ 6] 0   ???                                 0x0000000000000003 0x0 + 3
 *** End of error message ***
 *** An error occurred in MPI_Waitall
 *** reported by process [1969881089,3]
 *** on communicator MPI_COMM_WORLD
 *** MPI_ERR_REQUEST: invalid request
 *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
 ***    and potentially your MPI job)
--------------------------------------------------------------------------
mpirun noticed that process rank 0 with PID 0 on node dhcp-10 exited on signal 10 (Bus error: 10).
--------------------------------------------------------------------------

Почему ошибка выдачи Waitall и какprintf("1 MPI_Irecv"); не печатается.Все, что находится до этого оператора печати, печатается правильно.

Код работает с MPI_Wait () и MPI_Isend () следующим образом:

 // insert barrier 
    MPI_Barrier(MPI_COMM_WORLD);
    if (world_rank != 0){
    MPI_Irecv(&grid, size*2, MPI_DOUBLE, world_rank-1, 0, MPI_COMM_WORLD, &request[0]);
    printf("1 MPI_Irecv");
    }
    if (world_rank != world_size-1){
    MPI_Irecv(&grida, size*2, MPI_DOUBLE, world_rank+1, 1, MPI_COMM_WORLD, &request[1]);
    printf("2 MPI_Irecv");
    }
    if (world_rank != world_size-1){
    MPI_Isend(grid2[end], size*2, MPI_DOUBLE, world_rank+1, 0, MPI_COMM_WORLD, &request[0]);
    printf("1 MPI_Send");
    }
    if (world_rank != 0){
    MPI_Isend(grid2[start], size*2, MPI_DOUBLE, world_rank-1, 1, MPI_COMM_WORLD,  &request[1]);
    printf("2 MPI_Send");
    }
    //MPI_Waitall(2, request, status); 
    MPI_Wait(&request[0], &status[0]);
    MPI_Wait(&request[1], &status[1]);

1 Ответ

0 голосов
/ 25 сентября 2019

request[0] используется неинициализированным в последнем ранге, а request[1] используется неинициализированным в первом ранге.

Возможно исправить статическую инициализацию массива request (при условии, что он не используетсягде-нибудь еще в вашем коде).

MPI_Request request[2] = {MPI_REQUEST_NULL, MPI_REQUEST_NULL};

Как примечание, вы можете рассмотреть возможность переименования request в requests и status в statuses, чтобы сделать его кристально чистым, это массивыа не скаляры.

...