Получение нежелательного поведения при отправке-получении сообщений с использованием MPI - PullRequest
0 голосов
/ 14 апреля 2019

Я изучаю MPI в C ++, и я хотел распараллелить создание картины множества Мандельброта.Я использую формат ppm.Каждый процессор создает свою часть и отправляет ее обратно в основной процесс, который получает его как MPI_CHAR.Это код:

#include "mpi.h"
#include <iostream>
#include <string>
#include <fstream>
#include <complex>

using namespace std;

int mandelbrot(int x, int y, int width, int height, int max)  {
    complex<float> point((float) (y - height/2.0) * 4.0/width, (float) (x - width/2.0) * 4.0/width);
    complex<float> z(0, 0);
    unsigned int iteration = 0;

    while (abs(z) < 4 && iteration < max) {
           z = z * z + point;
           iteration++;
    }
    return iteration;
}

int main(int argc, char **argv) {
  int numprocs;
  int myid;
  int buff_size = 404270; // 200x200 
  char buff[buff_size];
  int i;

  MPI_Status stat;

  MPI_Init(&argc,&argv);
  MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
  MPI_Comm_rank(MPI_COMM_WORLD,&myid);

  int width = 200, height = 200, max_iter = 1000;

  if (myid == 0) {

    ofstream image("mandel.ppm");
    image << "P3\n" << width << " " << height << " 255\n";

    for(i=1; i < numprocs; i++) {
      MPI_Probe(i, 0, MPI_COMM_WORLD, &stat);
      int length;
      MPI_Get_count(&stat, MPI_CHAR, &length);
      MPI_Recv(buff, length, MPI_CHAR, i, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
      image << buff;
    }

  } else {

    stringstream ss;
    // proc rank: 1, 2, ..., n
    int part = height/(numprocs-1), start = (myid - 1) * part, end = part * myid;
    printf("%d -> %d\n", start, end);

    for (int row = start; row < end; row++) {
        for (int col = 0; col < width; col++) {

            int iteration = mandelbrot(row, col, width, height, max_iter);

            if (row == start) ss << 255 << ' ' << 255 << ' ' << 255 << "\n";
            else if (iteration < max_iter) ss << iteration * 255 << ' ' << iteration * 20 << ' ' << iteration * 5 << "\n";
            else ss << 0 << ' ' << 0 << ' ' << 0 << "\n";
        }
    }

    printf("\n sizeof = %d\n", ss.str().length());
    MPI_Send(ss.str().c_str(), ss.str().length(), MPI_CHAR, 0, 0, MPI_COMM_WORLD);
  }

  MPI_Finalize();

  return 0;  
}

Компиляция кода:

$ mpic++ -std=c++0x mpi.mandel.cpp -o mpi.mandel

Запуск с 3 процессами (основной процесс + ранг процессов 1 и 2)

$ mpirun -np 3 ./mpi.mandel

Результатppm снимки при работе с процессами 3, 4 и 5:

enter image description here enter image description here enter image description here

Кажется, что двухточечная связь отправки-получения смешивает результаты, когда более 3 процессов пытаются отправить элементы MPI_CHAR в основной процесс.Как можно избежать такого поведения?

1 Ответ

0 голосов
/ 14 апреля 2019

Работает при создании буфера buff той же длины, что и принимающее сообщение:

.
.
   for (int i=1; i < numprocs; i++) {
      MPI_Probe(i, 0, MPI_COMM_WORLD, &stat);
      int length;
      MPI_Get_count(&stat, MPI_CHAR, &length);
      printf("\nfrom %d <<-- %d (stat.source=%d) Receiving %d chars\n", myid, i, stat.MPI_SOURCE, length);
      char buff[length + 1];
      MPI_Recv(buff, length, MPI_CHAR, i, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
      buff[length] = '\0';
      image << buff;
   }
.
.

Таким образом, нам больше не нужно объявление в начале int buff_size = 404270; и char buff[buff_size];

enter image description here enter image description here enter image description here

...