Отправка и получение двумерного массива через MPI - PullRequest
21 голосов
/ 05 мая 2011

Проблема, которую я пытаюсь решить, заключается в следующем:

Серийный код C ++, который у меня есть, вычисляется по большой двумерной матрице.Чтобы оптимизировать этот процесс, я хочу разделить эту большую 2D-матрицу и запустить на 4 узлах (скажем), используя MPI.Единственная связь, которая происходит между узлами, - это совместное использование краевых значений в конце каждого временного шага.Каждый узел делит данные граничного массива, A [i] [j], со своим соседом.

Основываясь на чтении о MPI, я хочу реализовать следующую схему:

if (myrank == 0)
{
 for (i= 0 to x)
 for (y= 0 to y)
 {
  C++ CODE IMPLEMENTATION 
  .... 
  MPI_SEND(A[x][0], A[x][1], A[x][2], Destination= 1.....)
  MPI_RECEIVE(B[0][0], B[0][1]......Sender = 1.....)
  MPI_BARRIER
}

if (myrank == 1)
{
for (i = x+1 to xx)
for (y = 0 to y)
{
 C++ CODE IMPLEMENTATION
 ....
 MPI_SEND(B[x][0], B[x][1], B[x][2], Destination= 0.....)
 MPI_RECEIVE(A[0][0], A[0][1]......Sender = 1.....)
 MPI BARRIER
}

Я хотел бы знать, верен ли мой подход, и также был бы признателен за любые рекомендации относительно других функций MPIискать для реализации.

Спасибо, Эшвин.

Ответы [ 2 ]

33 голосов
/ 05 мая 2011

Просто для того, чтобы немного усилить баллы Джоэла:

Это будет намного проще, если вы распределите свои массивы так, чтобы они были смежными (что-то из "многомерных массивов" C не дает вам автоматически:)

int **alloc_2d_int(int rows, int cols) {
    int *data = (int *)malloc(rows*cols*sizeof(int));
    int **array= (int **)malloc(rows*sizeof(int*));
    for (int i=0; i<rows; i++)
        array[i] = &(data[cols*i]);

    return array;
}

/*...*/
int **A;
/*...*/
A = alloc_2d_init(N,M);

Затем вы можете отправлять и получать весь массив NxM с помощью

MPI_Send(&(A[0][0]), N*M, MPI_INT, destination, tag, MPI_COMM_WORLD);

, а по окончании освободить память с помощью

free(A[0]);
free(A);

Также, MPI_Recv является блокирующим получателем, а MPI_Send может быть блокирующим отправлением.С точки зрения Джоэла, это означает, что вам определенно не нужны Барьеры.Кроме того, это означает, что если у вас есть шаблон отправки / получения, как указано выше, вы можете оказаться в тупиковой ситуации - все отправляют, никто не получает.Безопаснее:

if (myrank == 0) {
   MPI_Send(&(A[0][0]), N*M, MPI_INT, 1, tagA, MPI_COMM_WORLD);
   MPI_Recv(&(B[0][0]), N*M, MPI_INT, 1, tagB, MPI_COMM_WORLD, &status);
} else if (myrank == 1) {
   MPI_Recv(&(A[0][0]), N*M, MPI_INT, 0, tagA, MPI_COMM_WORLD, &status);
   MPI_Send(&(B[0][0]), N*M, MPI_INT, 0, tagB, MPI_COMM_WORLD);
}

Другой, более общий подход заключается в использовании MPI_Sendrecv:

int *sendptr, *recvptr;
int neigh = MPI_PROC_NULL;

if (myrank == 0) {
   sendptr = &(A[0][0]);
   recvptr = &(B[0][0]);
   neigh = 1;
} else {
   sendptr = &(B[0][0]);
   recvptr = &(A[0][0]);
   neigh = 0;
}
MPI_Sendrecv(sendptr, N*M, MPI_INT, neigh, tagA, recvptr, N*M, MPI_INT, neigh, tagB, MPI_COMM_WORLD, &status);

или неблокирующих отправок и / или получении.

4 голосов
/ 05 мая 2011

Во-первых, вам не нужно так много барьеров. Во-вторых, вы действительно должны отправлять свои данные как один блок, так как несколько блокировок отправки / получения могут привести к снижению производительности.

...