Второй MPI_Send зависает, если размер буфера превышает 256 - PullRequest
2 голосов
/ 01 марта 2011
int n, j, i, i2, i3, rank, size,  rowChunk,  **cells, **cellChunk;


MPI_Status status;

MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);


if(!rank){
    printf("\nEnter board size:\n");
    fflush(stdout);
    scanf("%d", &n);

    printf("\nEnter the total iterations to play:\n");
    fflush(stdout);
    scanf("%d", &j);


    srand(3);

    rowChunk = n/size; //how many rows each process will get

    for(i=1; i<size; i++){

        MPI_Send(&n,1, MPI_INT, i, 0, MPI_COMM_WORLD);
        MPI_Send(&j,1, MPI_INT, i, 7, MPI_COMM_WORLD);
    }

    cells = (int**) malloc(n*sizeof(int*));    //create main 2D array

    for(i=0; i<n; i++){

        cells[i] = (int*) malloc(n*sizeof(int));
    }

    for(i=0; i<n; i++){
        for(i2=0; i2<n; i2++){           //fill array with random data

            cells[i][i2] = rand() % 2;
        }
    }       

    for(i=1; i<size; i++){        //send blocks of rows to each process
        for(i2=0; i2<rowChunk; i2++){ //this works for all n

            MPI_Send(cells[i2+(rowChunk*i)], n, MPI_INT, i, i2, MPI_COMM_WORLD);
        }
    }

    cellChunk = (int**) malloc(rowChunk*sizeof(int*));

    for(i=0; i<rowChunk; i++){    //declare 2D array for process zero's array chunk

        cellChunk[i] = (int*) malloc(n*sizeof(int));
    }

    for(i=0; i<rowChunk; i++){   //give process zero it's proper chunk of the array
        for(i2=0; i2<n; i2++){

            cellChunk[i][i2] = cells[i][i2];
        }
    }


    for(i3=1; i3<=j; i3++){

        MPI_Send(cellChunk[0], n, MPI_INT, size-1,1,MPI_COMM_WORLD); //Hangs here if n >256
        MPI_Send(cellChunk[rowChunk-1], n, MPI_INT, 1,2,MPI_COMM_WORLD); //also hangs if n > 256

            ... //Leaving out code that works

Этот код отлично работает, если n (размер массива) меньше или равен 256. Больше или больше и зависает на первом MPI_Send.Кроме того, при отправке фрагментов строки массива другим процессам (сначала MPI_Send) другие процессы прекрасно получают свои данные, даже если n> 256. Что может привести к зависанию только этого MPI_Send, если размер буфера превышает 256?

Ответы [ 3 ]

6 голосов
/ 01 марта 2011

Вы никогда не получаете никаких сообщений, и поэтому код заполнит пространство локального буфера MPI, а затем заходит в тупик, ожидая вызова MPI_Recv (или аналогичного). Вам нужно будет вставить операции получения, чтобы ваши сообщения действительно отправлялись и обрабатывались получателями.

1 голос
/ 25 августа 2011

MPI_Send - блокирующий вызов.Стандарт предписывает, чтобы MPI_Send мог вернуть управление, как только можно безопасно изменить буфер сообщений.В качестве альтернативы, MPI_Send может ожидать возврата, пока не пройдет некоторое время ПОСЛЕ запуска или завершения MPI_Recv.

Реализация MPI, которую вы используете, вероятно, выполняет "нетерпеливую" последовательность сообщений, если сообщение <256 счетчиков (С типом данных MPI_INT это будет сообщение 1k).Сообщение копируется в другой буфер, и управление возвращается «рано».Для больших (r) сообщений вызов MPI_Send не возвращается, пока (по крайней мере) не будет выполнен соответствующий вызов MPI_Recv.</p>

Если вы разместите полный репродуктор, вы, вероятно, получите лучший ответ.

0 голосов
/ 01 марта 2011

MPI_Send "может блокироваться до получения сообщения.", Поэтому наиболее вероятно, что соответствующий прием не достигнут.Вы должны убедиться, что MPI_Recv s расположены в правильном порядке.Поскольку вы не опубликовали свою часть получения, невозможно сообщить подробности.

Вы можете реструктурировать свое приложение, чтобы убедиться, что совпадающие получатели находятся в порядке.Вам также может быть удобно использовать комбинированные MPI_Sendrecv или неблокирующие MPI_Isend, MPI_Irecv и MPI_Wait.

...