Я заметил, что для того же кода на OpenMPI требуется на 50% больше времени, чем для Intel. Я использую следующий синтаксис для компиляции и запуска:
Компилятор Intel MPI: Redhat Fedora Core версии 3 (Гейдельберг), версия ядра: Linux 2.6.9-1.667smp x86_64
mpiicpc -o xxxx.cpp <filename> -lmpi
OpenMPI 1.4.3: (Centos 5.5 с python 2.4.3, версия ядра: Linux 2.6.18-194.el5 x86_64)
mpiCC xxxx.cpp -o <filename
Команда запуска MPI:
mpirun -np 4 <filename>
Другие технические характеристики оборудования
processor : 0
vendor_id : GenuineIntel
cpu family : 15
model : 3
model name : Intel(R) Xeon(TM) CPU 3.60GHz
stepping : 4
cpu MHz : 3591.062
cache size : 1024 KB
physical id : 0
siblings : 2
core id : 0
cpu cores : 1
apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 5
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36
clflush dts acpi mmx fxsr sse sse2 ss ht tm syscall lmconstant_tsc pni monitor ds_cpl est tm2
cid xtpr
bogomips : 7182.12
clflush size : 64
cache_alignment : 128
address sizes : 36 bits physical, 48 bits virtual
power management:
Можно ли расшифровать вопрос эффективности из приведенной выше информации? Влияет ли флаг компилятора на эффективность симуляции. Если да, то какие флаги полезно проверить, чтобы включить их в Open MPI. Включит ли MPICH2 эффективность в симуляции с использованием OpenMPI?