Ну, у вас не должно быть разных компиляций LAPACK на каждом узле. Если ваши числовые библиотеки изменяются в разных частях симуляции, вы должны ожидать странных результатов - и это не имеет никакого отношения к параллелизму. Так что не делай этого.
Единственное, что я видел в реальном времени, когда MPI вводил хитрость в таких ситуациях, это то, что такие вещи, как MPI_REDUCE (... MPI_SUM ...), могут приводить к разным ответам на одном и том же числе узлов на разных прогонах, потому Суммирование может быть в другом порядке. Это просто стандартная математика с плавающей запятой. Вы можете избежать этого, выполнив MPI_GATHER () из соответствующих чисел и суммируя их в некотором четко определенном порядке, например, после сортировки по убыванию по величине.