как исправить эту программу MPI кода - PullRequest
0 голосов
/ 28 июня 2011

Эта программа демонстрирует небезопасную программу, потому что иногда она будет работать нормально, а в других случаях она не будет выполнена. Причина сбоя или зависания программы заключается в исчерпании буфера на стороне принимающей задачи, как следствие того, как библиотека MPI реализовала протокол протокола для сообщений определенного размера. Одним из возможных решений является включение вызова MPI_Barrier как в циклы отправки, так и в прием.

как его программный код правильный ???

#include "mpi.h"
#include <stdio.h>
#include <stdlib.h>

#define MSGSIZE 2000

int main (int argc, char *argv[])
{
int        numtasks, rank, i, tag=111, dest=1, source=0, count=0;
char       data[MSGSIZE];
double     start, end, result;
MPI_Status status;

MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD, &numtasks);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);

if (rank == 0) {
  printf ("mpi_bug5 has started...\n");
  if (numtasks > 2) 
    printf("INFO: Number of tasks= %d. Only using 2 tasks.\n", numtasks);
  }

/******************************* Send task **********************************/
if (rank == 0) {

  /* Initialize send data */
  for(i=0; i<MSGSIZE; i++)
     data[i] =  'x';

  start = MPI_Wtime();
  while (1) {
    MPI_Send(data, MSGSIZE, MPI_BYTE, dest, tag, MPI_COMM_WORLD);
    count++;
    if (count % 10 == 0) {
      end = MPI_Wtime();
      printf("Count= %d  Time= %f sec.\n", count, end-start);
      start = MPI_Wtime();
      }
    }
  }

/****************************** Receive task ********************************/

if (rank == 1) {
  while (1) {
    MPI_Recv(data, MSGSIZE, MPI_BYTE, source, tag, MPI_COMM_WORLD, &status);
    /* Do some work  - at least more than the send task */
    result = 0.0;
    for (i=0; i < 1000000; i++) 
      result = result + (double)random();
    }
  }

MPI_Finalize();
}

1 Ответ

1 голос
/ 28 июня 2011

Способы улучшения этого кода, чтобы получатель не получал неограниченное количество неожиданных сообщений , включая:

  • Синхронизация - вы упомянули MPI_Barrier, но даже использование MPI_Ssend вместо MPI_Send будет работать.
  • Явная буферизация - использование MPI_Bsend или Brecv для обеспечения адекватной буферизации.
  • Отправленные приемы - процесс получения отправляет IRecvs перед началом работы, чтобы гарантировать получение сообщений в буферы, предназначенные для хранения данных, а не системные буферы.

В этом педагогическом случае, поскольку количество сообщений не ограничено, только первое (синхронизация) будет надежно работать.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...